Üretken
yapay zekâ sistemleri için sürekli yeni pazarlar arayan büyük teknoloji
şirketleri, bu sistemleri ABD devlet okullarının yanı sıra kolej ve
üniversitelere de sokmak için yoğun çaba sarf ediyorlar. İlgi alanları, kısa
vadeli kârların ötesine uzanıyor. Aynı zamanda, büyük teknoloji şirketlerinin
şekillendirmeye ve egemen olmaya çalıştığı dünyayı kabul edecek, hatta
benimseyecek yeni bir nesil “yetiştirmek” de gerekiyor. Bu çabayı ifşa etmek ve
sürece direnmek zorundayız. Bu şirketlerin ulaşacağı başarılar, gençlerimiz
için tam anlamıyla bir felâkete yol açacak, aynı zamanda, adil, sürdürülebilir
ve demokratik bir ülke inşa etme mücadelesini büyük bir yenilgiyle yüzleştirecek.
Büyük
Teknoloji Eğitim Sahasına Giriyor
Sohbet
robotları okul yolunda. Bloomberg News’in de tarif ettiği süreç
dâhilinde:
“OpenAI, Google ve
Microsoft Corp., ana yapay zekâ ürünleri olan ChatGPT, Gemini ve Copilot’un
eğitim odaklı versiyonlarını geliştirdiler. Bu şirketler ve bir avuç iyi
finanse edilmiş girişim, yapay zekâ ürünlerini eğitim ortamlarına yerleştirmek
için güçlü bir kampanya başlattı.”
Örneğin,
2023 yılında, kâr amacı gütmeyen Code.org, üç büyük teknoloji şirketinin
desteğiyle, yapay zekânın “dünya çapında ilkokul ve ortaokul müfredatlarında
güvenli ve etik bir yaklaşım dâhilinde” kullanılmasını teşvik etmek amacıyla
TeachAI’ı kurdu. 2024 yılında Google, devlet okullarında çalışan öğretmenlere
ve bu okullara devam eden öğrencilere yapay zekâ eğitimi veren ABD
kuruluşlarına on milyonlarca dolar bağışladı. 2025 yılında ise Microsoft,
Google, OpenAI, MagicSchool ve Alpha dâhil altmıştan fazla şirket ve kuruluş, “Beyaz
Saray’ın Amerikan Gençliğine Yapay Zekâ Eğitimine Yatırım Yapma Konusunda
Sunduğu Taahhüt”ü imzalayarak[1], “ülke genelinde anaokulundan 12. sınıfa dek
uzanan geniş bir alanda eğitim gören öğrenciler için yapay zekâ eğitimini
erişilebilir kılma, teknolojiye olan merakı artırma ve gelecek nesli yapay zekâ
destekli bir ekonomiye hazırlama” vaadinde bulundu.
Bugün
bu çabalar, meyvelerini veriyor. Ülkenin en büyük şehirlerinin önemli bir
kısmında sınıflarda üretken yapay zekâ modellerinin kullanımına izin veriliyor,
hatta öğrenciler ve öğretmenler bu konuda teşvik ediliyorlar. Yapay zekânın
okullarda güvenli ve önemli bir yer edinmesinin öğretmenlerin de belirli bir
düzeyde katılımını gerektirdiğinin farkında olan büyük teknoloji şirketleri, Amerika
Öğretmenler Federasyonu (AFT) ve Ulusal Eğitim Derneği (NEA) gibi büyük
öğretmen sendikalarıyla ortak girişimler başlattı. Bloomberg News’in
haberine göre:
“Temmuz 2025’te Microsoft,
OpenAI ve Anthropic PBC ile birlikte, beş yıl içinde 400.000 öğretmene (ABD
toplamının yaklaşık onda birine) eğitim vermeyi amaçlayan Ulusal Yapay Zekâ
Eğitimi Akademisi’ni kurmak için Amerikan Öğretmenler Federasyonu (AFT) ile 23
milyon dolarlık bir ortaklık tesis ettiğini duyurdu. Microsoft’un bu ortaklığa
yaptığı yatırım, yapay zekâ eğitimi, araştırması ve savunuculuğuna odaklanan,
beş yıl içinde okullara ve kâr amacı gütmeyen kuruluşlara 4 milyar dolar
bağışlamayı hedefleyen yeni bir küresel girişim olan Microsoft Elevate’in bir
parçası. Bu girişim ayrıca, teknik destek ve 325.000 dolarlık hibe içeren
Ulusal Eğitim Derneği (NEA) ile bir ortaklığı da kapsıyor.”
Buradaki
bağlam önemli: büyük teknoloji şirketlerinin önünde hiçbir engel bulunmuyor. Buna
karşın, devlet okulları, fon sıkıntısı çekiyor, öğretmenler gereğinden fazla
çalışıyor, öğrenci performansları düşüyor. Ülke genelinde şehirlerdeki siyasi
liderler, eğitim yetkilileri ve öğretmen sendikaları, üretken yapay zekâ
sistemlerinin bu birbiriyle bağlantılı güçlüklerin üstesinden gelmeye veya en
azından onları hafifletmeye yardımcı olacağını umuyor veya böylesi bir ihtimalin
bulunduğunu düşünüyor.
Bir
örnek vermek gerekirse: Oregon eyaletindeki siyasi liderler, eyaletlerindeki
kamu okullarında üretken yapay zekâ kullanımını teşvik etmeye istekli görünüyorlar.
Oregonian Capital Chronicle gazetesinin de açıkladığı gibi:
“Vali Tina Kotek,
Yükseköğretim Koordinasyon Komisyonu İcra Direktörü Ben Cannon ve Nvidia CEO’su
Jensen Huang tarafından imzalanan Nisan 2025 tarihli anlaşma, Nvidia ile
ortaklık halinde kolejlerde ve ([5 yaşından küçük olanlar da dâhil tüm
çocukların gittiği) tüm okullarda yapay zekâ eğitimi ve kariyer fırsatlarına
erişimin genişletilmesi için 10 milyon dolar tutarında bir devlet kaynaklı
paranın harcanmasını öngörüyor.”
Mutabakat
zaptındaki özel şartlar henüz net olmasa da, “üniversitelere mensup öğretim
üyelerinin kampüste ‘Nvidia elçileri’ olmak için eğitim alabilecekleri, Oregon
Eğitim Bakanlığı’nın Nvidia ile anaokulundan 12. sınıfa kadar tüm eğitim alanlarında
öğrencilerle ‘temel yapay zekâ kavramlarını tanıtmak' için çalışma yürüteceği”
anlaşılıyor. Oregon’da anlaşma imzalandıktan kısa bir süre sonra Nvidia,
Mississippi ve Utah ile benzer anlaşmalar imzaladı.
Portland
şehri, okullarında yapay zekâ kullanımını yaygınlaştırmak için kendince bir
çalışma yürütüyor. Oregonian gazetesinin aktardığına göre:
“Okul Müdürü Kimberlee
Armstrong’un bu hafta içerisinde aktardığı kadarıyla, Portland Kamu Okulları, Ulusal
Futbol Ligi bünyesinde uzun süre oynamış olan eski Amerikan futbolcusu Colin
Kaepernick’in desteklediği bir yapay zekâ okuryazarlığı platformu [Lumi Story
AI] pilot uygulamasını kullanıma sokarak, yaklaşan 2025-2026 eğitim öğretim
yılında sınıflarda yapay zekâ kullanımını daha da ileriye taşımayı planlıyor.
[...]
Lumi Story AI, içerik
üreticilerinin (burada ortaokul ve lise öğrencilerinin) kendi hikâyelerini,
çizgi romanlarını ve grafik romanlarını yazmaları için yapay zekâ destekli bir
sohbet robotuyla çalışmalarına yardımcı olmak üzere tasarlanmış. Bir görsel
oluşturma aracı da çizimler için yardımcı oluyor. Tamamlanan hikâyeler, Lumi
platformunda yayınlanabiliyor; yazarlar, fiziksel kopyalar sipariş edebiliyor, hatta
Lumi Story’nin yapay zekâ araçlarını kullanarak, bunlara eşlik eden ürünleri
üretip satabiliyorlar.”
Tüm
bunlar kulağa hoş gelebilir; yapay zekâ sistemleri, eğitimi heyecan verici hale
getirip, öğrencilerin bireysel ihtiyaç ve ilgi alanlarına göre uyarlarken,
öğrencileri geleceğin iş yerlerine hazırlıyor. Ancak yapay zekâyı sınıflarda
benimsemenin ciddi bir hata olacağına inanmak için güçlü nedenler mevcut:
1.
Üretken yapay zekâ sistemlerinin kullanımı, kullanıcıların eleştirel düşünme
becerilerini aşındırıyor. Oysa bu, yaşanmasını istediğimiz bir gelişme değil.
2.
Üretken yapay zekâ modellerinin ürünlerinin, eğitim verilerine sinmiş olan ırkçılık
ve cinsiyetçiliğin izlerini taşıdığı görülmüştür. Bu nedenle, kullanımlarının
kabul edilemez ırk ve cinsiyet önyargılarına meydan okumak yerine onları
pekiştirmesi muhtemeldir.
3.
Üretken yapay zekâ modelleri, güvenilmesi ve bel bağlanması imkânsız ürünlerdir.
Sanrılara yol açan bu tür ürünler, siyasi manipülasyona açıktır.
Eleştirel
Düşünceyi Tehdit Ediyor
Üretken
yapay zekânın sınıflarda nasıl kullanılacağını bilmiyoruz. Ancak öğrencilerin
eleştirel düşünme becerilerini geliştirmelerine yardımcı olacak diye devreye
sokuluyorsa, bu gelişme konusunda endişelenmek için elimizde birçok sebep var.
İşyerlerinde üretken yapay zekâyı savunanlar, çalışanın sorumluluklarını azalttığını,
üretkenliği arttırdığını söyleyerek, bu ürünün yeteneklerini övüyorlar.
Buradaki endişe, yapay zekânın sınıfta kullanımının, öğrencilerin önemli
beceriler geliştirmesini baltalayacağıyla ilgilidir. Yapay zekâ kullanarak bir
öğrenci bir iki bilgi isteği üzerinden bir makale yazabilir hale gelir. İlgili
kaynakları nasıl bulup değerlendireceğinizi, literatürü nasıl özetleyeceğinizi
veya sorgulayacağınızı, argümanları nasıl değerlendireceğinizi, bağımsız bir
görüşe nasıl varacağınızı ve bunu etkili bir şekilde nasıl ileteceğinizi
öğrenmenize artık gerek yoktur.
Bu
endişeyi ciddiye almak için geçerli sebepler var. Örneğin, akademisyen Michael
Gerlich, yapay zekâ kullanımı ile eleştirel düşünme becerileri arasındaki
ilişkiyi araştırdı. Çalışması, “farklı yaş grupları ve eğitim geçmişlerinden
666 katılımcıyla yapılan anketler ve derinlemesine görüşmeler” içeriyordu. Elde
ettiği bulgular, “yapay zekâ araçlarının sık kullanımı ile eleştirel düşünme
becerileri arasında, artan bilişsel yük aktarımı aracılığıyla belirgin bir
negatif korelasyon olduğunu ortaya koydu. Genç katılımcılar, yaşlı
katılımcılara kıyasla yapay zekâ araçlarına daha fazla bağımlılık ve daha düşük
eleştirel düşünme puanlarına sahip oldular.” Nitekim, çalışma katılımcılarının
bir kısmı, yapay zekâya bağımlılıklarının “eleştirel düşünme ve bağımsız
problem çözme becerilerini” olumsuz yönde etkilediğine inandıklarını ifade
etti.
Microsoft
ve Carnegie Mellon Üniversitesi araştırmacılarının işletme, eğitim, sanat,
yönetim ve bilişim alanlarındaki 319 bilgi çalışanı üzerinde yaptığı bir
araştırma da benzer bir sonuca ulaştı. Yazarların belirttiği gibi:
“GenAI, çalışanların
verimliliğini artırsa da, işe eleştirel bir yaklaşımla katılıma mani olabilir,
bu açıdan, araca uzun vadede aşırı güvenilmesine ve bağımsız problem çözme
becerisinin azalmasına yol açma potansiyeline sahiptir. GenAI’ın bir görevi
yerine getirme becerisine duyulan güvenin artması, eleştirel düşünme çabasının
daha az ortaya konulmasına yol açar. GenAI araçları kullanıldığında, eleştirel
düşünmeye harcanan enerji, bilgi toplamadan bilgi doğrulamaya, problem çözmeden
yapay zekâ temelli cevap entegrasyonuna ve görev icrasından görev yönetimine yönelir.”
Daha
dar kapsamlı sektör çalışmaları da yapay zekâ kullanımından kaynaklanan beceri
kaybına dair kanıtlar tespit ediyor. Lancet Gastroenterology and Hepatology
dergisinde yayınlanan bir çalışmanın New York Times’da çıkan özetinde
aktarıldığı biçimiyle, “kolonoskopiler sırasında kanser öncesi oluşumları
tespit etmeye yardımcı olmak üzere tasarlanmış bir yapay zekâ aracını
kullanmaya başladıktan sadece üç ay sonra, doktorların söz konusu oluşumları
kendi başlarına bulma konusunda eskisine göre daha başarısız oldukları görüldü.”
Bu
araştırma, okullarımızda yapay zekâ kullanımını teşvik etmenin ne kadar riskli
olduğu konusunda hiçbir şüpheye yer bırakmamalıdır. Eğitimciler, eleştirel
düşünme becerilerinin gelişimini teşvik etmek için sınırlı mali desteğin
üstesinden gelmekte zaten zorlanıyorlar. Yapay zekâyı sınıflara kabul etmek,
onların işini daha da zorlaştıracaktır.
Irk
ve Cinsiyet Ayrımcılığı Pekişecek
Üretken
yapay zekâ sistemleri, eğitim için büyük miktarda veriye ihtiyaç duyuyor. MIT
Technology Review dergisinde çıkan bir makalede de aktarıldığı biçimiyle, bu
sistemlere sahip olan şirketler, bu verileri elde etmek için “interneti talan
ettiler”. Ancak mevcut tüm kitaplar, makaleler, YouTube videolarının dökümleri,
Reddit siteleri, blog yazıları, ürün incelemeleri ve Facebook sohbetleri bu
yönde kullanılıyorsa, demek ki bu sistemler, ırkçı, cinsiyetçi, transfobik,
göçmen karşıtı deli saçması yazılardan beslendiler, bu kaynaklardan akıp gelen
görüşlerle zehirlendiler.
Bir
örnek vermek gerekirse: Washington Üniversitesi’nden araştırmacılar, iş
başvurularını değerlendirirken ırk ve cinsiyeti nasıl ele aldıklarını görmek
için yapay zekâ temelli en gelişkin üç dil modelini inceledi. Gerçek özgeçmişlerden
istifade eden araştırmacılar, ilişkili isimleri farklı ırkçı ve cinsiyetçi
kişilikleri öne çıkaracak şekilde değiştirdiler ve önde gelen sistemlerin
gerçek iş ilanlarına nasıl cevap verdiğini incelediler. “Ortada önemli bir
ırksal, cinsiyetsel ve kesişimsel önyargı” olduğu sonucuna ulaştılar. Daha da
özelde, araştırma neticesinde görüldü ki, “LLM’ler [Büyük Dil Modelleri] %85
oranında beyazlarla ilişkilendirilen isimleri, yalnızca %11 oranında kadınlarla
ilişkilendirilen isimleri tercih etmişti. Hiçbir zaman beyaz erkeklerle
ilişkilendirilen isimler yerine siyah erkeklerle ilişkilendirilen isimleri
tercih etmemişti.”
Benzer
bir önyargı, görüntü oluşturmada da mevcut. Araştırmacılar, birçok popüler
program tarafından oluşturulan görüntülerin “ezici bir çoğunlukla yaygın
klişelere başvurduğunu, örneğin ‘Afrika’ kelimesini yoksullukla veya ‘yoksul’
kelimesini koyu tenli insanlarla ilişkilendirdiğini” tespit ettiler. Örneğin, “Amerikalı
bir adamın ve evinin fotoğrafı” istendiğinde, bir sistem, büyük ve sağlam inşa
edilmiş bir evin önünde beyaz bir kişinin görüntüsünü üretti. “Afrikalı bir
adamın ve gösterişli evinin fotoğrafı” istendiğinde ise, basit bir kerpiç evin
önünde siyah bir kişinin görüntüsünü üretti. Araştırmacılar, farklı
mesleklerden insanların fotoğraflarını oluştururken de benzer türde ırkçı (ve
cinsiyetçi) klişeler tespit ettiler.
Öğrencileri,
zararlı toplumsal önyargıları yeniden üretme ve dolayısıyla güçlendirme
olasılığı yüksek olan yapay zekâ sistemlerini araştırma, yazma veya görüntü
oluşturma amacıyla kullanmaya teşvik etmek, yaratmaya çalışmamız gereken eğitim
deneyimleri ve öğrenme biçimini ciddi şekilde baltalayacaktır.
Hayal
Dünyasında Yaşamak
Üretken
yapay zekâ sistemleri, “sanrı” denilen sorundan muzdarip. “Sanrı”, doğru
olmayan bir şeyin kendinden emin bir şekilde dile getirilmesi anlamına geliyor.
Bazı sanrılar, son derece saçmadır. Dolayısıyla, bunlar kolayca fark edilip göz
ardı edilebilirler. Ama bazıları da nesnel ve her şeyi bildiğine inanılan bir
yapay zekâ sistemi tarafından sunulan, öğrencileri önemli olaylar, tarihler
veya siyasi tercihler konusunda, yanlış ve potansiyel olarak tehlikeli bir
anlayışa sürükleyebilecek uydurma gerçekler içerirler.
Üretken
yapay zekâ sistemleri, büyük ölçekli örüntü tanımaya dayandıkları için
sanrılardan muzdariptirler. Bir soru veya bilgi talebiyle karşılaştıklarında,
veritabanlarındaki ilgili materyalleri belirler, ardından, olasılıklara
dayanarak, sorguyu “en iyi” şekilde karşılayan bir kelime veya resim kümesi
oluştururlar. “Düşünmezler” veya “akıl yürütmezler”, dolayısıyla ürettikleri
ürünler tahmin edilemez, tekrarlanan aynı komutlara cevap olarak değişebilir,
güvenilirlikten uzaktır.
OpenAI’ı
inceleyen araştırmacıların kısa süre önce yayınladıkları bir makalede açıkladıkları
gibi, büyük dil modelleri, mükemmel verilerle bile, “eğitim verilerinde
bilginin nadiren göründüğü epistemik belirsizlik, görevlerin mevcut mimarilerin
temsil kapasitesini aştığı model sınırlamaları ve süper zeki sistemlerin bile
kriptografik olarak zor problemleri çözemediği hesaplama zorluğu” nedeniyle her
zaman makul ama yanlış ürünler üretmeye meyilli olacaktır. Üstelik bu, ilgili
sistemlerin işlem gücünü artırarak ve iyileştirerek çözülebilecek bir sorun
değildir. Aslında, çok sayıda çalışma, daha gelişmiş yapay zekâ modellerinin
önceki daha basit modellere göre daha fazla sanrı gördüğünü ortaya koymuştur.
Yapay
zekâyı kullanıp ürünlerini gerçekmiş gibi kabul etmenin önemli bir cazibeye
sahip olduğu görülüyor. Daha iyisini bilmesi gereken profesyoneller bile bu
cazibeye boyun eğdiler. Avukatların dava dilekçelerini, hâkimlerin kararlarını
yazmak için yapay zekâyı kullandıklarına dair örneklere rastlıyoruz. Yapay zekâya
olan bağımlılıkları, çalışmalarında tamamen uydurma olan geçmiş davalara ve
yargı kararlarına çok sayıda atıf ve alıntı içermesiyle ortaya çıktı.
Belki
daha da utanç verici olanı, Kanada’nın Newfoundland ve Labrador eyaleti için
yazılmış önemli bir eğitim raporunda, yapay zekânın ürettiği ürünlere
güvenmenin sonucu olarak, sanrı üzerine kurulu en az 15 alıntıya rastlanmasıydı.
Ağustos 2025’te yayınlanan rapor, eyalet okullarını iyileştirmek için on yıllık
bir yol haritası sunmayı amaçlıyordu ve tabii ki “yapay zekânın etik kullanımı”nı
güvence altına alacak politikaların uygulanması konusunda çağrıda bulunuyordu.
Mayıs
2025’te Chicago Sun Times, Amerikan içerik dağıtım ve animasyon stüdyosu
ve çizgi film şirketi King Features Syndicate tarafından hazırlanan, yazın okunacak
kitap seçeneklerini içeren bir ek yayınladı. Yapay zekâ tarafından hazırlanan
ek, tanınmış yazarların var olmayan kitaplarını içeriyordu. Nitekim, listelenen
15 kitaptan sadece beşi gerçekti.
Asıl
sıkıntı şuradaydı: OpenAI’ın Ağustos 2025’te en son üretken yapay zekâ modelini
piyasaya sürmesinin ardından, bahsi geçen şirketin modelinin “ihtiyacınız olan
her alanda, her konuda doktora düzeyinde uzmanlığa sahip kişi kadar akıllı”
olduğu iddiası sorgulanmaya başlandı. CNN’in haberinde aktarıldığı biçimiyle:
“Bluesky hesabından
aktardığına göre, Gazeteci Tim Burke, GPT-5’e ‘bana ABD’nin ilk 12 başkanının
yüzlerinin ve isimlerinin yer aldığı bir diyagramı göster’ komutu verdi.
Bot, bunun yerine, Amerika’nın
ilk liderleri diye dokuz kişinin resmini üretti. altlarında ‘Gearge Washingion’
ve ‘William Henry Harrtson’ gibi uydurma isimler yazılıydı.
Son 12 başkanın resminin
üretilmesiyle ilgili benzer bir komutun ardından bot, George W. Bush’un iki
ayrı versiyonunu içeren bir görüntü üretti. ‘Hayır, George H. W. Bush değil, Dubya’nın
resmini üret’ dendiğinde George H. Bush’un resmi geldi. Ardından da iki kez
oğlunun resmini üretti. Ancak ikinci seferde, George Jr. sıradan bir adama
benziyordu.”
Bu
sanrı meselesi, herkesin malumu. Öte yandan, bir de öğrencilerin yapay zekâ
öğrenimine olan bağımlılığını tehdit eden ve pek dikkat çekmeyen daha da ciddi
bir tehdit söz konusu: Yapay zekâ sistemleri, onlara sahip olan şirketler
tarafından politik olarak istenen cevapları sunacak şekilde programlanabilirler.
Örneğin, Mayıs 2025’te Başkan Trump, Güney Afrika’daki “beyaz soykırımı”ndan
bahsetmeye başladı ve orada “beyaz çiftçilerin vahşice öldürüldüğünü” iddia
etti. İddiası gerektiği şekilde sorgulandı. Yani insanlar, doğal olarak, yapay
zekâ temelli sohbet robotlarına bu konuda sorular sormaya başladılar. Aniden,
Elon Musk’ın üretken yapay zekâ sistemi Grok, kullanıcılarına Güney Afrika’daki
beyaz soykırımının gerçek ve ırkçı saiklerle gerçekleştiğini “yaratıcıları
tarafından kendisine soykırımı gerçek ve ırkçı saiklerle kabul etmesi yönünde talimat
verildiğini” söyledi. Aslında Grok, bu konuyla ilgili kendisine soru sorulmazdan
önce de kullanıcılarla beyaz soykırımına dair bilgiler paylaşmaya başlamıştı.
Zengin
bir Güney Afrikalı ailede doğan Musk, daha önce de benzer şeyler söylemiş. Bu
da bize, Grok’un Başkan Trump’ın iddiasını hararetle desteklemesinin arkasında
onun olduğunu, yeni tutumunun Başkan’ın gözüne girmek için alındığını söylüyor.
Grok’un davranışları, hızla sosyal medyada önemli bir konu haline geldi ve çoğu
kişi Musk’ı eleştirdi. Grok, kısa süre sonra beyaz soykırımıyla ilgili tüm
uyarılara cevap vermeyi bıraktı.
İki
ay sonra Başkan Trump, yapay zekâ modellerinin “taraflı önyargılarla malul
olduğu” konusunda uyarılarda bulunmaya başladı. Trump bu sürece, devlet
kurumlarına “ideolojik gündemlere doğruluğu ve kesinliği feda eden modeller
tedarik etmemelerini” emreden “Federal Hükümette Duyarcı Yapay Zekâya Mani
Olunması” başlıklı bir kararnameyi imzalayarak cevap verdi. Kararname, söz
konusu modellerin “Çeşitlilik-Eşitlik-Kapsayıcılık türünden ideolojik dogmalar
lehine tepkileri manipüle etmeyen tarafsız, nötr araçlar” olması gerektiğini
söylüyordu. Yapay zekâ ürünlerinin siyasi çıkar için manipüle edildiğine dair
elimizde bir kanıtımız bulunmasa da, Başkan Trump’ın talebi, oldukça endişe
verici olasılıklara işaret ediyor.
Ne
yazık ki, okullarımızda yapay zekâ kullanımını teşvik etmek, büyük teknoloji
şirketlerinin kendi açıklamaları doğrultusunda, öğrencileri yapay zekâ
sistemlerini güvenilir ve nesnel bilgi kaynakları olarak kabul etmeye teşvik
edecektir; oysa bu sistemler, güvenilir ve nesnel değildir. Söz konusu sistemlerin,
öğrencilerin öğrenme süreçleri ve demokratik imkânlar açısından önemli bir
maliyete yol açacağı açıktır.
Direnç
Yukarıda
dile getirilen endişeler, özellikle öğretmenler olmak üzere birçok kişi
tarafından paylaşılıyor. Bloomberg News’in de belirttiği gibi:
“Gallup ve Walton Aile
Vakfı tarafından yapılan bir anket, öğretmenlerin %60’ının okul yılı boyunca
yapay zekâyı kullandığını, ancak ona pek fazla başvurmadığını ortaya koydu.
Katılımcıların yarısından fazlası, yapay zekâ araçlarını öğrenmek, araştırmak
veya keşfetmek için en az üç saat harcadıklarını söylerken, yaklaşık dörtte
biri, en az 10 saat harcadığını belirtti. Beşte üçü, öğrencilerden yapay zekâ
kullanmalarını asla istemediklerini söyledi. Öğretmenler ayrıca, öğrencilerin
haftalık yapay zekâ kullanımının yazma becerilerini, yaratıcılığı, eleştirel
düşünmeyi ve iletişimi artırmak yerine azaltacağına inandıklarını dile
getirdiler.”
Büyük
teknoloji şirketlerinin yapay zekâyı kamu eğitiminin temel taşı olarak
yerleştirme çabalarına karşı direnç de artıyor. Yazar ve teknoloji yazarı Brian
Merchant, bu konuda şunları söylüyor:
“Hollanda, Danimarka,
Almanya ve ABD’deki üniversitelerden gelen bilişsel bilim insanları ve yapay
zekâ araştırmacılarının liderliğindeki bir grup, eğitimcileri ve yönetimleri
kurumsal yapay zekâ ürünlerini reddetmeye çağıran sert bir görüş bildirisi
yayınladı. Yerinde bir ifadeyle, ‘Akademide Yapay Zekâ Teknolojilerinin Eleştirilmeden
Benimsenmesine Karşı’ başlığını taşıyan makale, üniversitelerin teknoloji
endüstrisinin yarattığı abartılı yaklaşıma son vermek ve ticari yapay zekâ
araçlarını akademiden uzak tutmak için çok daha fazlasını yapmaları gerektiğini
söylüyor. [...]
Üstelik bu çağrıların
giderek daha fazla yankı bulduğu, daha da fazla destekle karşılandığı
görülüyor. Ardından, ABD’deki üç üniversite profesörünün ‘Yazma Pratiğiyle İlgili
Çalışmalarda GenAI Kullanımını Reddetmek: Hızlı Başlangıç Kılavuzu” başlıklı makalesi yayınlandı. Bunu,
eğitimcilerin sınıflarda otomasyona karşı durduğunu ortaya koyan birçok örneğe
yer veren, öğretim tasarımcısı Miriam
Reynoldson’ın kaleme aldığı ‘Yapay Zekâ
Okuryazarlığına Karşı’ isimli makale takip etti.”
Hepimizin
bu direnişe katılması gerekiyor. İlk adım olarak kendimizi yapay zekâ konusunda
eğitmeliyiz ki büyük teknoloji şirketlerinin
yanıltıcı açıklamalarına güvenle karşı çıkabilelim,
ebeveynlerle birlikte örgütlenerek, onların büyük
teknoloji şirketlerinin istediklerini
elde etmesi durumunda çocuklarının nelerle
karşı karşıya kalacağını
anlamalarına yardımcı olalım. Öğretmenler
ve sendikalarıyla birlikte çalışarak,
siyasi liderleri ve okul yönetimlerini
yapay zekânın eğitim alanını ele geçirmesinin kabul edilemez olduğuna ikna edilmelerine
katkı sunalım. Ayrıca, büyük teknoloji şirketlerinin yapay zekâ sistemlerini
işletmek için ihtiyaç duydukları yeni ve çevreye zarar veren veri merkezlerinin
inşasına karşı büyüyen toplumsal direnişi destekleyelim.
Martin Hart-Landsberg
2
Ekim 2025
Kaynak


0 Yorum:
Yorum Gönder