ChatGPT, Değer ve Bilgi: Marksist Bir Yaklaşım
Michael
Roberts’ın yapay zekâ ve yeni dil öğrenme makineleri ile ilgili yazısına[1]
yazdığı yorumda Jack Rasmus, beni de düşünmeye sevk eden kimi sorular soruyor.
“Marx’ın makinelere dair
analizini ve makinelerin, meta aşındığında ona aktarılan yoğunlaşmış emeğe ait
değer olduğuna dair görüşünü, insan emeğinin müdahalesi olmadan, kendini idame
ettirme ve kodunu güncelleme becerisine, yani aşınmama becerisine sahip, yazılım
temelli makinelere tatbik edebilir miyiz?”
Jack’in
bu gayet meşru olan sorusuna cevap vermeden önce, Marksist epistemolojinin
(bilgi teorisinin) gelişimi denilen olgunun keşfedilmemiş ve azgelişmiş bir
araştırma sahası olduğunu söylemem gerekiyor.
Kanaatimce,
Marksist yaklaşımın ana özelliklerinden birisi, “nesnel üretim”le (nesnel
şeylerin üretimiyle) “zihinsel üretim” (bilgi üretimi) arasında yaptığı
ayrımdır.
Daha
da önemlisi, Marksizm, bilimi maddi gerçekliğin bir yansıması veya gayrı maddi
bir şey olarak görmez, onu maddi bir olgu olarak ele alır. Bu da bize her ikisi
de maddi olan nesnel üretim araçları ile zihinsel üretim araçları arasında ayrım
yapma imkânı sunar.
Marx,
çalışmalarında esas olarak maddi üretim araçlarına odaklandı. Ama sadece bu
konuyu ele almadı. Süreç içerisinde Marx’ın asarında bilginin nasıl anlaşılması
gerektiğine dair birçok görüş geliştirildi.
Bir
makine nesnel üretim aracıdır, onda mündemiç olan bilgi ise zihinsel üretim
aracıdır. Bu sebeple, ChatGPT gibi yapay zekâ ürünleri, zihinsel üretim
araçları olarak görülmeli. Bilgi de maddi olduğu için, bu zihinsel üretim
araçları da nesnel üretim araçları gibi maddi olgular olarak ele alınmalı.
Zihinsel
üretim araçları, sermaye için ortaya konulan insani zihin emeğinin sonucu olduğuna
göre bunlar da belirli bir değere sahiptir ve artı-değer üretir. Dolayısıyla,
yapay zekâ insan emeğini içerir. Ama o, zihinsel bir iştir.
Nesnel
üretim araçları gibi zihinsel üretim araçları da üretkenliği artırır, iş
miktarını düşürür. Bunların değeri, iş için ayrılan saatler üzerinden
ölçülebilir. Zihinsel üretim araçlarının üretkenliği ChatGPT satışına,
indirilmesine veya zihinsel iş süreçlerine uygulanmasına ait sayılar üzerinden
ölçülebilir.
Nesnel
üretim araçları gibi zihinsel üretim araçlarının da değeri, insan emeği
üzerinden gerçekleştirilen iyileştirmelerle (bilginin geliştirilmesiyle) artar,
aşınma ve yıpranma sürecine bağlı olarak azalır. Bu açıdan, zihinsel üretim
araçları (yapay zekâ) değer kaybeder, üstelik bu kayba oldukça hızlı bir
biçimde tanık olur. Burada fiziki bir değer kaybından çok teknoloji rekabetine
(demode olmaya) bağlı bir değer kaybı söz konusudur. Ayrıca, nesnel üretim
araçları gibi bunların üretkenliği de artı-değerin yeniden dağıtım sürecini
etkiler.
Üretkenlik
düzeyindeki farklılaşmalara ve artı-değerin yeniden dağıtılması sürecine
yönelik etkilerine bağlı olarak yeni ChatGPT modelleri eskilerinin yerini alır,
zira eski modeller, yeni ve daha üretken olan modellere kıyasla değer kaybına uğramışlardır.
Jack
şu soruyu soruyor:
“Bu beceri, insan emeğini
temel alıyor mu almıyor mu? Almıyorsa, bu cevabın, Marx’ın sermayenin organik
bileşimi kavramı ve aynı zamanda Roberts gibi isimlerin sürekli yineledikleri
kâr oranlarının düşme eğilimi hipotezi için ne gibi bir anlamı vardır?”
Tekrarlarsak:
Bu “beceri”, sadece insan emeğine (zihinsel emeğe) dayanmıyor. O aynı zamanda
insan emeği. Bu açıdan bakıldığında, Marx’ın sermayenin organik bileşimi ile
ilgili anlayışında bir sorun olmadığını söyleyebiliriz.
Yapay
zekâ ve ChatGPT, zihinsel üretim araçlarının, bilginin yeni biçimleri. Sermayeyi
belirlemek için nesnel üretim araçlarına ve zihinsel üretim araçlarına bakmak
gerekiyor. Ortak paydaları, her iki sektörde harcanan değişken sermayenin
toplamı. Bu anlamda, kâr oranı, her iki sektörde üretilen artı değerin her iki
sektörde kullanılan üretim araçlarının toplamına ve her iki sektörde harcanan değişken
sermayeye bölünmesiyle bulunuyor.
Bu
açıdan, Jack’in iddiasının aksine, zihinsel üretim araçları kâr oranlarının
düşme eğilimi kanununda hiçbir değişikliğe yol açmıyor.
Bu
tespitleri daha iyi anlayabilmek için Marx’ın bilgi teorisini incelemek ve
geliştirmek gerekiyor. Aşağıda yoğunlaştırılmış kimi ifadelerle birlikte, bu
çalışmaya katkı sunulacak.
Önce
klasik bilgisayarları ele alalım. Bilgiyi, aynı ifadenin hem doğru hem de
yanlış olma ihtimalini dışlayan formel mantık, Boole mantığı veya cebir temelinde
dönüştürüyorlar. Formel mantık, dolayısıyla bilgisayarlar, çelişkileri
dışlıyorlar. Bunları algılasalar bile mantıksal hatalar açığa çıkıyor. Aynı durum,
kuantum bilgisayarlar için de geçerli.
Başka
bir ifadeyle, formel mantık, önceden belirlenmiş zihinsel çalışma süreçlerini,
yani işlemin sonucunun peşinen bilindiği, bu sebeple, o çalışma sürecine dâhil
olan bilgiyle hiçbir şekilde çelişmediği süreçleri açıklıyor, buna karşılık, yeni
ve henüz bilinmeyen bir sonucun ortaya çıktığı ucu açık zihinsel çalışma süreçlerini
dışlıyor.
Ucu
açık süreç, herhangi bir biçimi olmayan ve bol miktarda bulunan potansiyel
bilgilerden yararlanıyor. Bunlar, içeriğindeki unsurların çelişkili yapısı
sebebiyle çelişkili bilgiler. Formel mantıktan farklı olarak, bu bilgilerin
dayandığı mantıkta esas olan, çelişkilerin varlığı. Burada bilginin potansiyel
yönü ile gerçekleşmiş somut yönü arasında belirli bir çelişki söz konusu. Bilgiye
ait unsurlar da dâhil, gerçekliğin yönleri arasındaki çelişkilerin kaynağı
burası.
Önceki
örneğe dönelim: ucu açık zihinsel çalışma süreçlerinde hem A=A hem de A¹A’dan
söz edebiliriz. Bu durumda ortada bir çelişki yok. A, A’ya eşittir (A=A) çünkü
gerçekleşmiş bir varlık olarak A tanım itibarıyla kendisine denktir, ama A¹A önermesi
de doğrudur, çünkü gerçekleşmiş olan A, potansiyel A ile çelişki içerisinde
olabilir. Bu, formel mantığın açıklayamadığı, değişimin doğasına ilişkin bir
durumdur.
Bu,
aynı zamanda yapay zekâ için de geçerli. Bilgisayar gibi yapay zekâ da formel
mantığı temel alır. Örneğin A’nın A’ya denk olup olmadığını sorduğunuzda, A¹A önermesi
aynı zamanda geçerli olsa bile, Chat GPT bu soruya “hayır” cevabını verir. Formel
mantığı temel aldığı için yapay zekâ, daha fazla bilgi elde ettiğimiz
potansiyel bilgi deposuna sahip değildir. O, çelişkileri idrak edemez, çünkü
onda potansiyele dair bir idrak söz konusu değildir. Oysa yaratıcı düşünce bu
çelişkilerden doğar. Çelişkiler, yeni ve henüz bilinmeyen bilgilerin ürediği
topraktır.
Yapay
zekâ, sadece gerçekleşmiş somut bilgi biçimlerini yeniden bir araya getirir,
seçer ve kopyalar. Görüntü tanıma, muhakeme, okuma anlama ve oyun gibi
görevlerde yapay zekâ, insandan daha iyi performans ortaya koyar. Ama yeni
bilgi üretemez.
Yüz
tanıma tekniğini ele alalım. Bu teknik, kişinin fotoğrafını eldeki veri
tabanıyla kıyaslar ve eşini bulur. Veri tabanı, zaten kim olduğu bilinen bir
dizi yüzden oluşmaktadır. Eş arama pratiğinde zaten oluşturulmuş olan, yani
bilinen bir yüz seçilir. Yeni bilgi (yeni yüz) üretilmez.
Yüz
tanıma, bir resmin eşini insandan daha hızlı bulur. İnsanın çalışma pratiğini
daha da üretken kılar. Ama seçim pratiği, yaratmak değildir. Seçme pratiği,
önceden belirlenmiş bir zihinsel işlemken, yaratma pratiği ucu açık bir
zihinsel işlemdir.
Başka
bir örneğe bakalım. ChatGPT, görebildiğimiz kadarıyla, insanın yaratıcı
yazarlık pratiğini taklit ediyor. Oysa gerçekte böyle değil. O, bilgileri
(zihinsel üretimin nesneleri anlamında) çok sayıda metinsel veriden türetiyor. Metinler,
küçük parçalara, cümlelere, kelimelere, hecelere ve örnekçe denilen şeylere
bölünüyor.
ChatGPT
makale yazarken, insanın yaptığı gibi argümanın mantığı üzerinden seçmiyor bir
sonraki örnekçeyi. En makul örnekçeyi seçiyor. İstatistiki açıdan en makul ve
olası bileşim üzerinden örnekçeler zincir hâline getiriliyor ve yazı oluşuyor. Burada
zaten üretilmiş olan bilgi unsurları seçilip bir araya getiriliyor, yeni bilgi
asla üretilmiyor.
Chomsky’nin
de dediği gibi:
“Yapay zekâ yığınla veriyi
alıyor, o verilerin içindeki ana şablonları arıyor ve giderek, görünüşte insanın
diline ve düşüncesine benzeyen, istatistiki açıdan makul ve olası çıktılar
konusunda daha da uzmanlaşıyor. […] ChatGPT, sadece mevcut yazında yer alan
standart argümanları özetliyor.”
ChatGPT,
gene de insanın aklına gelmemiş bir metni ortaya koyabilir. Fakat bu, hâlen
daha bir özettir ve zaten bilinen verilerin yeniden işlenmiş hâlidir. O,
yaratıcılığın ürünü olan bir yazı yazamaz, çünkü yeni gerçekleşmiş bilgi, ancak
potansiyel bilginin doğasında olan çelişkilerden doğabilir.
Morozov
(2023) bu konuda yerinde bir örnek sunuyor:
“Marcel Duchamp’ın 1917 tarihli
Pisuvar eseri bu konuda önemli bir örnektir. Duchamp’ın eserinden önce
pisuvar sadece pisuvardı. Ama bakış açısında yaptığı değişiklikle Duchamp, onu
bir sanat eserine dönüştürdü. Duchamp’ın şişe askılığı, kar küreği ve
pisuvarının ortak yönü ne diye sorduğunuzda ChatGPT, verdiği doğru cevap
dâhilinde, hepsinin Duchamp’ın sanat eserine dönüştürdüğü, gündelik hayata ait
nesneler olduğunu söylüyor. Ama “Duchamp bugün yaşasaydı, gündelik hayata ait
hangi nesneleri sanat eserine dönüştürürdü?” diye sorduğunuzda, cihaz akıllı
telefonlardan, elektronik skuterlerden ve yüz maskelerinden bahsediyor. Burada gerçek
manada ‘zekâ’dan eser olmadığı açık. Elimizde sadece iyi çalışan, ama
öngörülebilir istatistiki verileri temel alan bir makine var.”[3]
Marx,
bilgiyi anlamak için gerekli teorik çerçeveyi sunuyor. Kendilerine has somut
varlıklar olarak insanlar, aynı zamanda soyut bireyler olarak toplumsal
ilişkileri de geleceğe taşıyor. Soyut bireyler olarak “insanlar”, farklı
çıkarları ve dünya görüşleri olan bireyler arasındaki farklılıkları ortadan
kaldıran, genel bir kurgu.
Makineler
(bilgisayarlar) düşünebilseler bile sınıfsal ilişkilerin belirlenimi altında
olan, doğru-yanlış, hakiki ve yalan gibi sınıfsal ilişkilerin belirlediği
anlayışlara sahip insanlar gibi düşünemezler.
Bilgisayarların
insan gibi düşünebileceğine dair inanç yanlıştır, ama bu inanç, aynı zamanda emek
gücü dâhilinde depolanan bilginin sınıfsal içeriğine, dolayısıyla, bilginin
üretiminde doğal olarak mevcut olan çelişkilere de kördür.
Guglielmo Carchedi
7 Haziran 2023
Kaynak
Dipnotlar:
[1] Michael Roberts, “Acemoglu, AI and Automation”, 30 Mayıs 2023, Recession. Türkçesi: İştiraki.
[2]
Noam Chomsky, “The False Promise of ChatGPT”, 8 Mart 2023, NYT.
[3] Evgeny Morozov, “The Problem with Artificial Intelligence”, 30 Mart 2023, Guardian. Türkçesi: İştiraki.
Hiç yorum yok:
Yorum Gönder