Pages

05 Ekim 2023

ChatGPT, Değer ve Bilgi: Marksist Bir Yaklaşım


ChatGPT, Değer ve Bilgi: Marksist Bir Yaklaşım

Michael Roberts’ın yapay zekâ ve yeni dil öğrenme makineleri ile ilgili yazısına[1] yazdığı yorumda Jack Rasmus, beni de düşünmeye sevk eden kimi sorular soruyor.

“Marx’ın makinelere dair analizini ve makinelerin, meta aşındığında ona aktarılan yoğunlaşmış emeğe ait değer olduğuna dair görüşünü, insan emeğinin müdahalesi olmadan, kendini idame ettirme ve kodunu güncelleme becerisine, yani aşınmama becerisine sahip, yazılım temelli makinelere tatbik edebilir miyiz?”

Jack’in bu gayet meşru olan sorusuna cevap vermeden önce, Marksist epistemolojinin (bilgi teorisinin) gelişimi denilen olgunun keşfedilmemiş ve azgelişmiş bir araştırma sahası olduğunu söylemem gerekiyor.

Kanaatimce, Marksist yaklaşımın ana özelliklerinden birisi, “nesnel üretim”le (nesnel şeylerin üretimiyle) “zihinsel üretim” (bilgi üretimi) arasında yaptığı ayrımdır.

Daha da önemlisi, Marksizm, bilimi maddi gerçekliğin bir yansıması veya gayrı maddi bir şey olarak görmez, onu maddi bir olgu olarak ele alır. Bu da bize her ikisi de maddi olan nesnel üretim araçları ile zihinsel üretim araçları arasında ayrım yapma imkânı sunar.

Marx, çalışmalarında esas olarak maddi üretim araçlarına odaklandı. Ama sadece bu konuyu ele almadı. Süreç içerisinde Marx’ın asarında bilginin nasıl anlaşılması gerektiğine dair birçok görüş geliştirildi.

Bir makine nesnel üretim aracıdır, onda mündemiç olan bilgi ise zihinsel üretim aracıdır. Bu sebeple, ChatGPT gibi yapay zekâ ürünleri, zihinsel üretim araçları olarak görülmeli. Bilgi de maddi olduğu için, bu zihinsel üretim araçları da nesnel üretim araçları gibi maddi olgular olarak ele alınmalı.

Zihinsel üretim araçları, sermaye için ortaya konulan insani zihin emeğinin sonucu olduğuna göre bunlar da belirli bir değere sahiptir ve artı-değer üretir. Dolayısıyla, yapay zekâ insan emeğini içerir. Ama o, zihinsel bir iştir.

Nesnel üretim araçları gibi zihinsel üretim araçları da üretkenliği artırır, iş miktarını düşürür. Bunların değeri, iş için ayrılan saatler üzerinden ölçülebilir. Zihinsel üretim araçlarının üretkenliği ChatGPT satışına, indirilmesine veya zihinsel iş süreçlerine uygulanmasına ait sayılar üzerinden ölçülebilir.

Nesnel üretim araçları gibi zihinsel üretim araçlarının da değeri, insan emeği üzerinden gerçekleştirilen iyileştirmelerle (bilginin geliştirilmesiyle) artar, aşınma ve yıpranma sürecine bağlı olarak azalır. Bu açıdan, zihinsel üretim araçları (yapay zekâ) değer kaybeder, üstelik bu kayba oldukça hızlı bir biçimde tanık olur. Burada fiziki bir değer kaybından çok teknoloji rekabetine (demode olmaya) bağlı bir değer kaybı söz konusudur. Ayrıca, nesnel üretim araçları gibi bunların üretkenliği de artı-değerin yeniden dağıtım sürecini etkiler.

Üretkenlik düzeyindeki farklılaşmalara ve artı-değerin yeniden dağıtılması sürecine yönelik etkilerine bağlı olarak yeni ChatGPT modelleri eskilerinin yerini alır, zira eski modeller, yeni ve daha üretken olan modellere kıyasla değer kaybına uğramışlardır.

Jack şu soruyu soruyor:

“Bu beceri, insan emeğini temel alıyor mu almıyor mu? Almıyorsa, bu cevabın, Marx’ın sermayenin organik bileşimi kavramı ve aynı zamanda Roberts gibi isimlerin sürekli yineledikleri kâr oranlarının düşme eğilimi hipotezi için ne gibi bir anlamı vardır?”

Tekrarlarsak: Bu “beceri”, sadece insan emeğine (zihinsel emeğe) dayanmıyor. O aynı zamanda insan emeği. Bu açıdan bakıldığında, Marx’ın sermayenin organik bileşimi ile ilgili anlayışında bir sorun olmadığını söyleyebiliriz.

Yapay zekâ ve ChatGPT, zihinsel üretim araçlarının, bilginin yeni biçimleri. Sermayeyi belirlemek için nesnel üretim araçlarına ve zihinsel üretim araçlarına bakmak gerekiyor. Ortak paydaları, her iki sektörde harcanan değişken sermayenin toplamı. Bu anlamda, kâr oranı, her iki sektörde üretilen artı değerin her iki sektörde kullanılan üretim araçlarının toplamına ve her iki sektörde harcanan değişken sermayeye bölünmesiyle bulunuyor.

Bu açıdan, Jack’in iddiasının aksine, zihinsel üretim araçları kâr oranlarının düşme eğilimi kanununda hiçbir değişikliğe yol açmıyor.

Bu tespitleri daha iyi anlayabilmek için Marx’ın bilgi teorisini incelemek ve geliştirmek gerekiyor. Aşağıda yoğunlaştırılmış kimi ifadelerle birlikte, bu çalışmaya katkı sunulacak.

Önce klasik bilgisayarları ele alalım. Bilgiyi, aynı ifadenin hem doğru hem de yanlış olma ihtimalini dışlayan formel mantık, Boole mantığı veya cebir temelinde dönüştürüyorlar. Formel mantık, dolayısıyla bilgisayarlar, çelişkileri dışlıyorlar. Bunları algılasalar bile mantıksal hatalar açığa çıkıyor. Aynı durum, kuantum bilgisayarlar için de geçerli.

Başka bir ifadeyle, formel mantık, önceden belirlenmiş zihinsel çalışma süreçlerini, yani işlemin sonucunun peşinen bilindiği, bu sebeple, o çalışma sürecine dâhil olan bilgiyle hiçbir şekilde çelişmediği süreçleri açıklıyor, buna karşılık, yeni ve henüz bilinmeyen bir sonucun ortaya çıktığı ucu açık zihinsel çalışma süreçlerini dışlıyor.

Ucu açık süreç, herhangi bir biçimi olmayan ve bol miktarda bulunan potansiyel bilgilerden yararlanıyor. Bunlar, içeriğindeki unsurların çelişkili yapısı sebebiyle çelişkili bilgiler. Formel mantıktan farklı olarak, bu bilgilerin dayandığı mantıkta esas olan, çelişkilerin varlığı. Burada bilginin potansiyel yönü ile gerçekleşmiş somut yönü arasında belirli bir çelişki söz konusu. Bilgiye ait unsurlar da dâhil, gerçekliğin yönleri arasındaki çelişkilerin kaynağı burası.

Önceki örneğe dönelim: ucu açık zihinsel çalışma süreçlerinde hem A=A hem de A¹A’dan söz edebiliriz. Bu durumda ortada bir çelişki yok. A, A’ya eşittir (A=A) çünkü gerçekleşmiş bir varlık olarak A tanım itibarıyla kendisine denktir, ama A¹A önermesi de doğrudur, çünkü gerçekleşmiş olan A, potansiyel A ile çelişki içerisinde olabilir. Bu, formel mantığın açıklayamadığı, değişimin doğasına ilişkin bir durumdur.

Bu, aynı zamanda yapay zekâ için de geçerli. Bilgisayar gibi yapay zekâ da formel mantığı temel alır. Örneğin A’nın A’ya denk olup olmadığını sorduğunuzda, A¹A önermesi aynı zamanda geçerli olsa bile, Chat GPT bu soruya “hayır” cevabını verir. Formel mantığı temel aldığı için yapay zekâ, daha fazla bilgi elde ettiğimiz potansiyel bilgi deposuna sahip değildir. O, çelişkileri idrak edemez, çünkü onda potansiyele dair bir idrak söz konusu değildir. Oysa yaratıcı düşünce bu çelişkilerden doğar. Çelişkiler, yeni ve henüz bilinmeyen bilgilerin ürediği topraktır.

Yapay zekâ, sadece gerçekleşmiş somut bilgi biçimlerini yeniden bir araya getirir, seçer ve kopyalar. Görüntü tanıma, muhakeme, okuma anlama ve oyun gibi görevlerde yapay zekâ, insandan daha iyi performans ortaya koyar. Ama yeni bilgi üretemez.

Yüz tanıma tekniğini ele alalım. Bu teknik, kişinin fotoğrafını eldeki veri tabanıyla kıyaslar ve eşini bulur. Veri tabanı, zaten kim olduğu bilinen bir dizi yüzden oluşmaktadır. Eş arama pratiğinde zaten oluşturulmuş olan, yani bilinen bir yüz seçilir. Yeni bilgi (yeni yüz) üretilmez.

Yüz tanıma, bir resmin eşini insandan daha hızlı bulur. İnsanın çalışma pratiğini daha da üretken kılar. Ama seçim pratiği, yaratmak değildir. Seçme pratiği, önceden belirlenmiş bir zihinsel işlemken, yaratma pratiği ucu açık bir zihinsel işlemdir.

Başka bir örneğe bakalım. ChatGPT, görebildiğimiz kadarıyla, insanın yaratıcı yazarlık pratiğini taklit ediyor. Oysa gerçekte böyle değil. O, bilgileri (zihinsel üretimin nesneleri anlamında) çok sayıda metinsel veriden türetiyor. Metinler, küçük parçalara, cümlelere, kelimelere, hecelere ve örnekçe denilen şeylere bölünüyor.

ChatGPT makale yazarken, insanın yaptığı gibi argümanın mantığı üzerinden seçmiyor bir sonraki örnekçeyi. En makul örnekçeyi seçiyor. İstatistiki açıdan en makul ve olası bileşim üzerinden örnekçeler zincir hâline getiriliyor ve yazı oluşuyor. Burada zaten üretilmiş olan bilgi unsurları seçilip bir araya getiriliyor, yeni bilgi asla üretilmiyor.

Chomsky’nin de dediği gibi:

“Yapay zekâ yığınla veriyi alıyor, o verilerin içindeki ana şablonları arıyor ve giderek, görünüşte insanın diline ve düşüncesine benzeyen, istatistiki açıdan makul ve olası çıktılar konusunda daha da uzmanlaşıyor. […] ChatGPT, sadece mevcut yazında yer alan standart argümanları özetliyor.”

ChatGPT, gene de insanın aklına gelmemiş bir metni ortaya koyabilir. Fakat bu, hâlen daha bir özettir ve zaten bilinen verilerin yeniden işlenmiş hâlidir. O, yaratıcılığın ürünü olan bir yazı yazamaz, çünkü yeni gerçekleşmiş bilgi, ancak potansiyel bilginin doğasında olan çelişkilerden doğabilir.

Morozov (2023) bu konuda yerinde bir örnek sunuyor:

“Marcel Duchamp’ın 1917 tarihli Pisuvar eseri bu konuda önemli bir örnektir. Duchamp’ın eserinden önce pisuvar sadece pisuvardı. Ama bakış açısında yaptığı değişiklikle Duchamp, onu bir sanat eserine dönüştürdü. Duchamp’ın şişe askılığı, kar küreği ve pisuvarının ortak yönü ne diye sorduğunuzda ChatGPT, verdiği doğru cevap dâhilinde, hepsinin Duchamp’ın sanat eserine dönüştürdüğü, gündelik hayata ait nesneler olduğunu söylüyor. Ama “Duchamp bugün yaşasaydı, gündelik hayata ait hangi nesneleri sanat eserine dönüştürürdü?” diye sorduğunuzda, cihaz akıllı telefonlardan, elektronik skuterlerden ve yüz maskelerinden bahsediyor. Burada gerçek manada ‘zekâ’dan eser olmadığı açık. Elimizde sadece iyi çalışan, ama öngörülebilir istatistiki verileri temel alan bir makine var.”[3]

Marx, bilgiyi anlamak için gerekli teorik çerçeveyi sunuyor. Kendilerine has somut varlıklar olarak insanlar, aynı zamanda soyut bireyler olarak toplumsal ilişkileri de geleceğe taşıyor. Soyut bireyler olarak “insanlar”, farklı çıkarları ve dünya görüşleri olan bireyler arasındaki farklılıkları ortadan kaldıran, genel bir kurgu.

Makineler (bilgisayarlar) düşünebilseler bile sınıfsal ilişkilerin belirlenimi altında olan, doğru-yanlış, hakiki ve yalan gibi sınıfsal ilişkilerin belirlediği anlayışlara sahip insanlar gibi düşünemezler.

Bilgisayarların insan gibi düşünebileceğine dair inanç yanlıştır, ama bu inanç, aynı zamanda emek gücü dâhilinde depolanan bilginin sınıfsal içeriğine, dolayısıyla, bilginin üretiminde doğal olarak mevcut olan çelişkilere de kördür.

Guglielmo Carchedi
7 Haziran 2023
Kaynak

Dipnotlar:
[1] Michael Roberts, “Acemoglu, AI and Automation”, 30 Mayıs 2023, Recession. Türkçesi: İştiraki.

[2] Noam Chomsky, “The False Promise of ChatGPT”, 8 Mart 2023, NYT.

[3] Evgeny Morozov, “The Problem with Artificial Intelligence”, 30 Mart 2023, Guardian. Türkçesi: İştiraki.

Hiç yorum yok:

Yorum Gönder