24 Kasım 2025

,

Yapay Zekâ ve Eğitim: Çocuklar Tehlikede


Üretken yapay zekâ sistemleri için sürekli yeni pazarlar arayan büyük teknoloji şirketleri, bu sistemleri ABD devlet okullarının yanı sıra kolej ve üniversitelere de sokmak için yoğun çaba sarf ediyorlar. İlgi alanları, kısa vadeli kârların ötesine uzanıyor. Aynı zamanda, büyük teknoloji şirketlerinin şekillendirmeye ve egemen olmaya çalıştığı dünyayı kabul edecek, hatta benimseyecek yeni bir nesil “yetiştirmek” de gerekiyor. Bu çabayı ifşa etmek ve sürece direnmek zorundayız. Bu şirketlerin ulaşacağı başarılar, gençlerimiz için tam anlamıyla bir felâkete yol açacak, aynı zamanda, adil, sürdürülebilir ve demokratik bir ülke inşa etme mücadelesini büyük bir yenilgiyle yüzleştirecek.

Büyük Teknoloji Eğitim Sahasına Giriyor

Sohbet robotları okul yolunda. Bloomberg News’in de tarif ettiği süreç dâhilinde:

“OpenAI, Google ve Microsoft Corp., ana yapay zekâ ürünleri olan ChatGPT, Gemini ve Copilot’un eğitim odaklı versiyonlarını geliştirdiler. Bu şirketler ve bir avuç iyi finanse edilmiş girişim, yapay zekâ ürünlerini eğitim ortamlarına yerleştirmek için güçlü bir kampanya başlattı.”

Örneğin, 2023 yılında, kâr amacı gütmeyen Code.org, üç büyük teknoloji şirketinin desteğiyle, yapay zekânın “dünya çapında ilkokul ve ortaokul müfredatlarında güvenli ve etik bir yaklaşım dâhilinde” kullanılmasını teşvik etmek amacıyla TeachAI’ı kurdu. 2024 yılında Google, devlet okullarında çalışan öğretmenlere ve bu okullara devam eden öğrencilere yapay zekâ eğitimi veren ABD kuruluşlarına on milyonlarca dolar bağışladı. 2025 yılında ise Microsoft, Google, OpenAI, MagicSchool ve Alpha dâhil altmıştan fazla şirket ve kuruluş, “Beyaz Saray’ın Amerikan Gençliğine Yapay Zekâ Eğitimine Yatırım Yapma Konusunda Sunduğu Taahhüt”ü imzalayarak[1], “ülke genelinde anaokulundan 12. sınıfa dek uzanan geniş bir alanda eğitim gören öğrenciler için yapay zekâ eğitimini erişilebilir kılma, teknolojiye olan merakı artırma ve gelecek nesli yapay zekâ destekli bir ekonomiye hazırlama” vaadinde bulundu.

Bugün bu çabalar, meyvelerini veriyor. Ülkenin en büyük şehirlerinin önemli bir kısmında sınıflarda üretken yapay zekâ modellerinin kullanımına izin veriliyor, hatta öğrenciler ve öğretmenler bu konuda teşvik ediliyorlar. Yapay zekânın okullarda güvenli ve önemli bir yer edinmesinin öğretmenlerin de belirli bir düzeyde katılımını gerektirdiğinin farkında olan büyük teknoloji şirketleri, Amerika Öğretmenler Federasyonu (AFT) ve Ulusal Eğitim Derneği (NEA) gibi büyük öğretmen sendikalarıyla ortak girişimler başlattı. Bloomberg News’in haberine göre:

“Temmuz 2025’te Microsoft, OpenAI ve Anthropic PBC ile birlikte, beş yıl içinde 400.000 öğretmene (ABD toplamının yaklaşık onda birine) eğitim vermeyi amaçlayan Ulusal Yapay Zekâ Eğitimi Akademisi’ni kurmak için Amerikan Öğretmenler Federasyonu (AFT) ile 23 milyon dolarlık bir ortaklık tesis ettiğini duyurdu. Microsoft’un bu ortaklığa yaptığı yatırım, yapay zekâ eğitimi, araştırması ve savunuculuğuna odaklanan, beş yıl içinde okullara ve kâr amacı gütmeyen kuruluşlara 4 milyar dolar bağışlamayı hedefleyen yeni bir küresel girişim olan Microsoft Elevate’in bir parçası. Bu girişim ayrıca, teknik destek ve 325.000 dolarlık hibe içeren Ulusal Eğitim Derneği (NEA) ile bir ortaklığı da kapsıyor.”

Buradaki bağlam önemli: büyük teknoloji şirketlerinin önünde hiçbir engel bulunmuyor. Buna karşın, devlet okulları, fon sıkıntısı çekiyor, öğretmenler gereğinden fazla çalışıyor, öğrenci performansları düşüyor. Ülke genelinde şehirlerdeki siyasi liderler, eğitim yetkilileri ve öğretmen sendikaları, üretken yapay zekâ sistemlerinin bu birbiriyle bağlantılı güçlüklerin üstesinden gelmeye veya en azından onları hafifletmeye yardımcı olacağını umuyor veya böylesi bir ihtimalin bulunduğunu düşünüyor.

Bir örnek vermek gerekirse: Oregon eyaletindeki siyasi liderler, eyaletlerindeki kamu okullarında üretken yapay zekâ kullanımını teşvik etmeye istekli görünüyorlar. Oregonian Capital Chronicle gazetesinin de açıkladığı gibi:

“Vali Tina Kotek, Yükseköğretim Koordinasyon Komisyonu İcra Direktörü Ben Cannon ve Nvidia CEO’su Jensen Huang tarafından imzalanan Nisan 2025 tarihli anlaşma, Nvidia ile ortaklık halinde kolejlerde ve ([5 yaşından küçük olanlar da dâhil tüm çocukların gittiği) tüm okullarda yapay zekâ eğitimi ve kariyer fırsatlarına erişimin genişletilmesi için 10 milyon dolar tutarında bir devlet kaynaklı paranın harcanmasını öngörüyor.”

Mutabakat zaptındaki özel şartlar henüz net olmasa da, “üniversitelere mensup öğretim üyelerinin kampüste ‘Nvidia elçileri’ olmak için eğitim alabilecekleri, Oregon Eğitim Bakanlığı’nın Nvidia ile anaokulundan 12. sınıfa kadar tüm eğitim alanlarında öğrencilerle ‘temel yapay zekâ kavramlarını tanıtmak' için çalışma yürüteceği” anlaşılıyor. Oregon’da anlaşma imzalandıktan kısa bir süre sonra Nvidia, Mississippi ve Utah ile benzer anlaşmalar imzaladı.

Portland şehri, okullarında yapay zekâ kullanımını yaygınlaştırmak için kendince bir çalışma yürütüyor. Oregonian gazetesinin aktardığına göre:

“Okul Müdürü Kimberlee Armstrong’un bu hafta içerisinde aktardığı kadarıyla, Portland Kamu Okulları, Ulusal Futbol Ligi bünyesinde uzun süre oynamış olan eski Amerikan futbolcusu Colin Kaepernick’in desteklediği bir yapay zekâ okuryazarlığı platformu [Lumi Story AI] pilot uygulamasını kullanıma sokarak, yaklaşan 2025-2026 eğitim öğretim yılında sınıflarda yapay zekâ kullanımını daha da ileriye taşımayı planlıyor. [...]

Lumi Story AI, içerik üreticilerinin (burada ortaokul ve lise öğrencilerinin) kendi hikâyelerini, çizgi romanlarını ve grafik romanlarını yazmaları için yapay zekâ destekli bir sohbet robotuyla çalışmalarına yardımcı olmak üzere tasarlanmış. Bir görsel oluşturma aracı da çizimler için yardımcı oluyor. Tamamlanan hikâyeler, Lumi platformunda yayınlanabiliyor; yazarlar, fiziksel kopyalar sipariş edebiliyor, hatta Lumi Story’nin yapay zekâ araçlarını kullanarak, bunlara eşlik eden ürünleri üretip satabiliyorlar.”

Tüm bunlar kulağa hoş gelebilir; yapay zekâ sistemleri, eğitimi heyecan verici hale getirip, öğrencilerin bireysel ihtiyaç ve ilgi alanlarına göre uyarlarken, öğrencileri geleceğin iş yerlerine hazırlıyor. Ancak yapay zekâyı sınıflarda benimsemenin ciddi bir hata olacağına inanmak için güçlü nedenler mevcut:

1. Üretken yapay zekâ sistemlerinin kullanımı, kullanıcıların eleştirel düşünme becerilerini aşındırıyor. Oysa bu, yaşanmasını istediğimiz bir gelişme değil.

2. Üretken yapay zekâ modellerinin ürünlerinin, eğitim verilerine sinmiş olan ırkçılık ve cinsiyetçiliğin izlerini taşıdığı görülmüştür. Bu nedenle, kullanımlarının kabul edilemez ırk ve cinsiyet önyargılarına meydan okumak yerine onları pekiştirmesi muhtemeldir.

3. Üretken yapay zekâ modelleri, güvenilmesi ve bel bağlanması imkânsız ürünlerdir. Sanrılara yol açan bu tür ürünler, siyasi manipülasyona açıktır.

Eleştirel Düşünceyi Tehdit Ediyor

Üretken yapay zekânın sınıflarda nasıl kullanılacağını bilmiyoruz. Ancak öğrencilerin eleştirel düşünme becerilerini geliştirmelerine yardımcı olacak diye devreye sokuluyorsa, bu gelişme konusunda endişelenmek için elimizde birçok sebep var. İşyerlerinde üretken yapay zekâyı savunanlar, çalışanın sorumluluklarını azalttığını, üretkenliği arttırdığını söyleyerek, bu ürünün yeteneklerini övüyorlar. Buradaki endişe, yapay zekânın sınıfta kullanımının, öğrencilerin önemli beceriler geliştirmesini baltalayacağıyla ilgilidir. Yapay zekâ kullanarak bir öğrenci bir iki bilgi isteği üzerinden bir makale yazabilir hale gelir. İlgili kaynakları nasıl bulup değerlendireceğinizi, literatürü nasıl özetleyeceğinizi veya sorgulayacağınızı, argümanları nasıl değerlendireceğinizi, bağımsız bir görüşe nasıl varacağınızı ve bunu etkili bir şekilde nasıl ileteceğinizi öğrenmenize artık gerek yoktur.

Bu endişeyi ciddiye almak için geçerli sebepler var. Örneğin, akademisyen Michael Gerlich, yapay zekâ kullanımı ile eleştirel düşünme becerileri arasındaki ilişkiyi araştırdı. Çalışması, “farklı yaş grupları ve eğitim geçmişlerinden 666 katılımcıyla yapılan anketler ve derinlemesine görüşmeler” içeriyordu. Elde ettiği bulgular, “yapay zekâ araçlarının sık kullanımı ile eleştirel düşünme becerileri arasında, artan bilişsel yük aktarımı aracılığıyla belirgin bir negatif korelasyon olduğunu ortaya koydu. Genç katılımcılar, yaşlı katılımcılara kıyasla yapay zekâ araçlarına daha fazla bağımlılık ve daha düşük eleştirel düşünme puanlarına sahip oldular.” Nitekim, çalışma katılımcılarının bir kısmı, yapay zekâya bağımlılıklarının “eleştirel düşünme ve bağımsız problem çözme becerilerini” olumsuz yönde etkilediğine inandıklarını ifade etti.

Microsoft ve Carnegie Mellon Üniversitesi araştırmacılarının işletme, eğitim, sanat, yönetim ve bilişim alanlarındaki 319 bilgi çalışanı üzerinde yaptığı bir araştırma da benzer bir sonuca ulaştı. Yazarların belirttiği gibi:

“GenAI, çalışanların verimliliğini artırsa da, işe eleştirel bir yaklaşımla katılıma mani olabilir, bu açıdan, araca uzun vadede aşırı güvenilmesine ve bağımsız problem çözme becerisinin azalmasına yol açma potansiyeline sahiptir. GenAI’ın bir görevi yerine getirme becerisine duyulan güvenin artması, eleştirel düşünme çabasının daha az ortaya konulmasına yol açar. GenAI araçları kullanıldığında, eleştirel düşünmeye harcanan enerji, bilgi toplamadan bilgi doğrulamaya, problem çözmeden yapay zekâ temelli cevap entegrasyonuna ve görev icrasından görev yönetimine yönelir.”

Daha dar kapsamlı sektör çalışmaları da yapay zekâ kullanımından kaynaklanan beceri kaybına dair kanıtlar tespit ediyor. Lancet Gastroenterology and Hepatology dergisinde yayınlanan bir çalışmanın New York Times’da çıkan özetinde aktarıldığı biçimiyle, “kolonoskopiler sırasında kanser öncesi oluşumları tespit etmeye yardımcı olmak üzere tasarlanmış bir yapay zekâ aracını kullanmaya başladıktan sadece üç ay sonra, doktorların söz konusu oluşumları kendi başlarına bulma konusunda eskisine göre daha başarısız oldukları görüldü.”

Bu araştırma, okullarımızda yapay zekâ kullanımını teşvik etmenin ne kadar riskli olduğu konusunda hiçbir şüpheye yer bırakmamalıdır. Eğitimciler, eleştirel düşünme becerilerinin gelişimini teşvik etmek için sınırlı mali desteğin üstesinden gelmekte zaten zorlanıyorlar. Yapay zekâyı sınıflara kabul etmek, onların işini daha da zorlaştıracaktır.

Irk ve Cinsiyet Ayrımcılığı Pekişecek

Üretken yapay zekâ sistemleri, eğitim için büyük miktarda veriye ihtiyaç duyuyor. MIT Technology Review dergisinde çıkan bir makalede de aktarıldığı biçimiyle, bu sistemlere sahip olan şirketler, bu verileri elde etmek için “interneti talan ettiler”. Ancak mevcut tüm kitaplar, makaleler, YouTube videolarının dökümleri, Reddit siteleri, blog yazıları, ürün incelemeleri ve Facebook sohbetleri bu yönde kullanılıyorsa, demek ki bu sistemler, ırkçı, cinsiyetçi, transfobik, göçmen karşıtı deli saçması yazılardan beslendiler, bu kaynaklardan akıp gelen görüşlerle zehirlendiler.

Bir örnek vermek gerekirse: Washington Üniversitesi’nden araştırmacılar, iş başvurularını değerlendirirken ırk ve cinsiyeti nasıl ele aldıklarını görmek için yapay zekâ temelli en gelişkin üç dil modelini inceledi. Gerçek özgeçmişlerden istifade eden araştırmacılar, ilişkili isimleri farklı ırkçı ve cinsiyetçi kişilikleri öne çıkaracak şekilde değiştirdiler ve önde gelen sistemlerin gerçek iş ilanlarına nasıl cevap verdiğini incelediler. “Ortada önemli bir ırksal, cinsiyetsel ve kesişimsel önyargı” olduğu sonucuna ulaştılar. Daha da özelde, araştırma neticesinde görüldü ki, “LLM’ler [Büyük Dil Modelleri] %85 oranında beyazlarla ilişkilendirilen isimleri, yalnızca %11 oranında kadınlarla ilişkilendirilen isimleri tercih etmişti. Hiçbir zaman beyaz erkeklerle ilişkilendirilen isimler yerine siyah erkeklerle ilişkilendirilen isimleri tercih etmemişti.”

Benzer bir önyargı, görüntü oluşturmada da mevcut. Araştırmacılar, birçok popüler program tarafından oluşturulan görüntülerin “ezici bir çoğunlukla yaygın klişelere başvurduğunu, örneğin ‘Afrika’ kelimesini yoksullukla veya ‘yoksul’ kelimesini koyu tenli insanlarla ilişkilendirdiğini” tespit ettiler. Örneğin, “Amerikalı bir adamın ve evinin fotoğrafı” istendiğinde, bir sistem, büyük ve sağlam inşa edilmiş bir evin önünde beyaz bir kişinin görüntüsünü üretti. “Afrikalı bir adamın ve gösterişli evinin fotoğrafı” istendiğinde ise, basit bir kerpiç evin önünde siyah bir kişinin görüntüsünü üretti. Araştırmacılar, farklı mesleklerden insanların fotoğraflarını oluştururken de benzer türde ırkçı (ve cinsiyetçi) klişeler tespit ettiler.

Öğrencileri, zararlı toplumsal önyargıları yeniden üretme ve dolayısıyla güçlendirme olasılığı yüksek olan yapay zekâ sistemlerini araştırma, yazma veya görüntü oluşturma amacıyla kullanmaya teşvik etmek, yaratmaya çalışmamız gereken eğitim deneyimleri ve öğrenme biçimini ciddi şekilde baltalayacaktır.

Hayal Dünyasında Yaşamak

Üretken yapay zekâ sistemleri, “sanrı” denilen sorundan muzdarip. “Sanrı”, doğru olmayan bir şeyin kendinden emin bir şekilde dile getirilmesi anlamına geliyor. Bazı sanrılar, son derece saçmadır. Dolayısıyla, bunlar kolayca fark edilip göz ardı edilebilirler. Ama bazıları da nesnel ve her şeyi bildiğine inanılan bir yapay zekâ sistemi tarafından sunulan, öğrencileri önemli olaylar, tarihler veya siyasi tercihler konusunda, yanlış ve potansiyel olarak tehlikeli bir anlayışa sürükleyebilecek uydurma gerçekler içerirler.

Üretken yapay zekâ sistemleri, büyük ölçekli örüntü tanımaya dayandıkları için sanrılardan muzdariptirler. Bir soru veya bilgi talebiyle karşılaştıklarında, veritabanlarındaki ilgili materyalleri belirler, ardından, olasılıklara dayanarak, sorguyu “en iyi” şekilde karşılayan bir kelime veya resim kümesi oluştururlar. “Düşünmezler” veya “akıl yürütmezler”, dolayısıyla ürettikleri ürünler tahmin edilemez, tekrarlanan aynı komutlara cevap olarak değişebilir, güvenilirlikten uzaktır.

OpenAI’ı inceleyen araştırmacıların kısa süre önce yayınladıkları bir makalede açıkladıkları gibi, büyük dil modelleri, mükemmel verilerle bile, “eğitim verilerinde bilginin nadiren göründüğü epistemik belirsizlik, görevlerin mevcut mimarilerin temsil kapasitesini aştığı model sınırlamaları ve süper zeki sistemlerin bile kriptografik olarak zor problemleri çözemediği hesaplama zorluğu” nedeniyle her zaman makul ama yanlış ürünler üretmeye meyilli olacaktır. Üstelik bu, ilgili sistemlerin işlem gücünü artırarak ve iyileştirerek çözülebilecek bir sorun değildir. Aslında, çok sayıda çalışma, daha gelişmiş yapay zekâ modellerinin önceki daha basit modellere göre daha fazla sanrı gördüğünü ortaya koymuştur.

Yapay zekâyı kullanıp ürünlerini gerçekmiş gibi kabul etmenin önemli bir cazibeye sahip olduğu görülüyor. Daha iyisini bilmesi gereken profesyoneller bile bu cazibeye boyun eğdiler. Avukatların dava dilekçelerini, hâkimlerin kararlarını yazmak için yapay zekâyı kullandıklarına dair örneklere rastlıyoruz. Yapay zekâya olan bağımlılıkları, çalışmalarında tamamen uydurma olan geçmiş davalara ve yargı kararlarına çok sayıda atıf ve alıntı içermesiyle ortaya çıktı.

Belki daha da utanç verici olanı, Kanada’nın Newfoundland ve Labrador eyaleti için yazılmış önemli bir eğitim raporunda, yapay zekânın ürettiği ürünlere güvenmenin sonucu olarak, sanrı üzerine kurulu en az 15 alıntıya rastlanmasıydı. Ağustos 2025’te yayınlanan rapor, eyalet okullarını iyileştirmek için on yıllık bir yol haritası sunmayı amaçlıyordu ve tabii ki “yapay zekânın etik kullanımı”nı güvence altına alacak politikaların uygulanması konusunda çağrıda bulunuyordu.

Mayıs 2025’te Chicago Sun Times, Amerikan içerik dağıtım ve animasyon stüdyosu ve çizgi film şirketi King Features Syndicate tarafından hazırlanan, yazın okunacak kitap seçeneklerini içeren bir ek yayınladı. Yapay zekâ tarafından hazırlanan ek, tanınmış yazarların var olmayan kitaplarını içeriyordu. Nitekim, listelenen 15 kitaptan sadece beşi gerçekti.

Asıl sıkıntı şuradaydı: OpenAI’ın Ağustos 2025’te en son üretken yapay zekâ modelini piyasaya sürmesinin ardından, bahsi geçen şirketin modelinin “ihtiyacınız olan her alanda, her konuda doktora düzeyinde uzmanlığa sahip kişi kadar akıllı” olduğu iddiası sorgulanmaya başlandı. CNN’in haberinde aktarıldığı biçimiyle:

“Bluesky hesabından aktardığına göre, Gazeteci Tim Burke, GPT-5’e ‘bana ABD’nin ilk 12 başkanının yüzlerinin ve isimlerinin yer aldığı bir diyagramı göster’ komutu verdi.

Bot, bunun yerine, Amerika’nın ilk liderleri diye dokuz kişinin resmini üretti. altlarında ‘Gearge Washingion’ ve ‘William Henry Harrtson’ gibi uydurma isimler yazılıydı.

Son 12 başkanın resminin üretilmesiyle ilgili benzer bir komutun ardından bot, George W. Bush’un iki ayrı versiyonunu içeren bir görüntü üretti. ‘Hayır, George H. W. Bush değil, Dubya’nın resmini üret’ dendiğinde George H. Bush’un resmi geldi. Ardından da iki kez oğlunun resmini üretti. Ancak ikinci seferde, George Jr. sıradan bir adama benziyordu.”

Bu sanrı meselesi, herkesin malumu. Öte yandan, bir de öğrencilerin yapay zekâ öğrenimine olan bağımlılığını tehdit eden ve pek dikkat çekmeyen daha da ciddi bir tehdit söz konusu: Yapay zekâ sistemleri, onlara sahip olan şirketler tarafından politik olarak istenen cevapları sunacak şekilde programlanabilirler. Örneğin, Mayıs 2025’te Başkan Trump, Güney Afrika’daki “beyaz soykırımı”ndan bahsetmeye başladı ve orada “beyaz çiftçilerin vahşice öldürüldüğünü” iddia etti. İddiası gerektiği şekilde sorgulandı. Yani insanlar, doğal olarak, yapay zekâ temelli sohbet robotlarına bu konuda sorular sormaya başladılar. Aniden, Elon Musk’ın üretken yapay zekâ sistemi Grok, kullanıcılarına Güney Afrika’daki beyaz soykırımının gerçek ve ırkçı saiklerle gerçekleştiğini “yaratıcıları tarafından kendisine soykırımı gerçek ve ırkçı saiklerle kabul etmesi yönünde talimat verildiğini” söyledi. Aslında Grok, bu konuyla ilgili kendisine soru sorulmazdan önce de kullanıcılarla beyaz soykırımına dair bilgiler paylaşmaya başlamıştı.

Zengin bir Güney Afrikalı ailede doğan Musk, daha önce de benzer şeyler söylemiş. Bu da bize, Grok’un Başkan Trump’ın iddiasını hararetle desteklemesinin arkasında onun olduğunu, yeni tutumunun Başkan’ın gözüne girmek için alındığını söylüyor. Grok’un davranışları, hızla sosyal medyada önemli bir konu haline geldi ve çoğu kişi Musk’ı eleştirdi. Grok, kısa süre sonra beyaz soykırımıyla ilgili tüm uyarılara cevap vermeyi bıraktı.

İki ay sonra Başkan Trump, yapay zekâ modellerinin “taraflı önyargılarla malul olduğu” konusunda uyarılarda bulunmaya başladı. Trump bu sürece, devlet kurumlarına “ideolojik gündemlere doğruluğu ve kesinliği feda eden modeller tedarik etmemelerini” emreden “Federal Hükümette Duyarcı Yapay Zekâya Mani Olunması” başlıklı bir kararnameyi imzalayarak cevap verdi. Kararname, söz konusu modellerin “Çeşitlilik-Eşitlik-Kapsayıcılık türünden ideolojik dogmalar lehine tepkileri manipüle etmeyen tarafsız, nötr araçlar” olması gerektiğini söylüyordu. Yapay zekâ ürünlerinin siyasi çıkar için manipüle edildiğine dair elimizde bir kanıtımız bulunmasa da, Başkan Trump’ın talebi, oldukça endişe verici olasılıklara işaret ediyor.

Ne yazık ki, okullarımızda yapay zekâ kullanımını teşvik etmek, büyük teknoloji şirketlerinin kendi açıklamaları doğrultusunda, öğrencileri yapay zekâ sistemlerini güvenilir ve nesnel bilgi kaynakları olarak kabul etmeye teşvik edecektir; oysa bu sistemler, güvenilir ve nesnel değildir. Söz konusu sistemlerin, öğrencilerin öğrenme süreçleri ve demokratik imkânlar açısından önemli bir maliyete yol açacağı açıktır.

Direnç

Yukarıda dile getirilen endişeler, özellikle öğretmenler olmak üzere birçok kişi tarafından paylaşılıyor. Bloomberg News’in de belirttiği gibi:

“Gallup ve Walton Aile Vakfı tarafından yapılan bir anket, öğretmenlerin %60’ının okul yılı boyunca yapay zekâyı kullandığını, ancak ona pek fazla başvurmadığını ortaya koydu. Katılımcıların yarısından fazlası, yapay zekâ araçlarını öğrenmek, araştırmak veya keşfetmek için en az üç saat harcadıklarını söylerken, yaklaşık dörtte biri, en az 10 saat harcadığını belirtti. Beşte üçü, öğrencilerden yapay zekâ kullanmalarını asla istemediklerini söyledi. Öğretmenler ayrıca, öğrencilerin haftalık yapay zekâ kullanımının yazma becerilerini, yaratıcılığı, eleştirel düşünmeyi ve iletişimi artırmak yerine azaltacağına inandıklarını dile getirdiler.”

Büyük teknoloji şirketlerinin yapay zekâyı kamu eğitiminin temel taşı olarak yerleştirme çabalarına karşı direnç de artıyor. Yazar ve teknoloji yazarı Brian Merchant, bu konuda şunları söylüyor:

“Hollanda, Danimarka, Almanya ve ABD’deki üniversitelerden gelen bilişsel bilim insanları ve yapay zekâ araştırmacılarının liderliğindeki bir grup, eğitimcileri ve yönetimleri kurumsal yapay zekâ ürünlerini reddetmeye çağıran sert bir görüş bildirisi yayınladı. Yerinde bir ifadeyle, ‘Akademide Yapay Zekâ Teknolojilerinin Eleştirilmeden Benimsenmesine Karşı’ başlığını taşıyan makale, üniversitelerin teknoloji endüstrisinin yarattığı abartılı yaklaşıma son vermek ve ticari yapay zekâ araçlarını akademiden uzak tutmak için çok daha fazlasını yapmaları gerektiğini söylüyor. [...]

Üstelik bu çağrıların giderek daha fazla yankı bulduğu, daha da fazla destekle karşılandığı görülüyor. Ardından, ABD’deki üç üniversite profesörünün ‘Yazma Pratiğiyle İlgili Çalışmalarda GenAI Kullanımını Reddetmek: Hızlı Başlangıç Kılavuzu” başlıklı makalesi yayınlandı. Bunu, eğitimcilerin sınıflarda otomasyona karşı durduğunu ortaya koyan birçok örneğe yer veren, öğretim tasarımcısı Miriam Reynoldson’ın kaleme aldığı ‘Yapay Zekâ Okuryazarlığına Karşı’ isimli makale takip etti.”

Hepimizin bu direnişe katılması gerekiyor. İlk adım olarak kendimizi yapay zekâ konusunda eğitmeliyiz ki büyük teknoloji şirketlerinin yanıltıcı açıklamalarına güvenle karşı çıkabilelim, ebeveynlerle birlikte örgütlenerek, onların büyük teknoloji şirketlerinin istediklerini elde etmesi durumunda çocuklarının nelerle karşı karşıya kalacağını anlamalarına yardımcı olalım. Öğretmenler ve sendikalarıyla birlikte çalışarak, siyasi liderleri ve okul yönetimlerini yapay zekânın eğitim alanını ele geçirmesinin kabul edilemez olduğuna ikna edilmelerine katkı sunalım. Ayrıca, büyük teknoloji şirketlerinin yapay zekâ sistemlerini işletmek için ihtiyaç duydukları yeni ve çevreye zarar veren veri merkezlerinin inşasına karşı büyüyen toplumsal direnişi destekleyelim.

Martin Hart-Landsberg
2 Ekim 2025
Kaynak

0 Yorum: