Yapay zekâ bilinç kazanamaz, insan davranışlarını taklit eder

Google çalışanının yapay zekânın bilinç kazandığını söylemesi sonrası The Guardian gazetesinden Kenan Malik dikkat çekici bir yazı yayınladı. Malik, yapay zekânın bilinç kazanamayacağını insan davranışlarını taklit edeceğini söyledi.

Yapay zekâ bilinç kazanamaz, insan davranışlarını taklit eder
Yapay zekâ bilinç kazanamaz, insan davranışlarını taklit eder
GİRİŞ 20.06.2022 14:59 GÜNCELLEME 20.06.2022 15:01

Hindistan doğumlu Akademisyen ve yazar Kenan Malik, The Guardian gazetesinde yapay zekâ ile ilgili dikkat çeken bir yazı kaleme aldı. Malik, "Bilinçliliği unutun... Endişe, yapay zekânın insan önyargısını kopyalamasıdır" başlığıyla yayınladığı yazıda, "Bir robotun 'bilinci' konusundaki yaygara, çok daha rahatsız edici endişeleri gizler" diyerek yapay zekâ tartışılması gereken başka sorunlar olduğunu söyledi.

BİLİNÇLİLİK FORMÜLE EDİLEMEZ

Bilinçlilik, anlamını sezgisel olarak kavrayabildiğimiz ancak bilimsel terimlerle formüle etmesi zor olan kavram olduğunu belirten Malik, bilincin genellikle öz bilinç, öz farkındalık ve zekâ gibi benzer şekilde kötü tanımlanmış kavramlarla karıştırıldığını söyledi. 

Google, yapay zekânın canlandığını düşünen çalışanını işten kovduGoogle, yapay zekânın canlandığını düşünen çalışanını işten kovdu

Malik, daha sonra Google tarafından geliştirilen Diyalog Uygulamaları için Dil Modeli (Lamda)'nin canlandığına dair eleştirilere şu şekilde yanıt verdi: "Bilgisayar sembolleri işler. Program, bir sembol dizesini diğerine dönüştürmek için bir düzine kural veya algoritmaya ihtiyaç duyar. Ancak bu sembollerin ne anlama geldiğini bilemez. Çünkü bir bilgisayar için, anlam önemsizdir. Çevrimiçi olan olağanüstü miktarda metin üzerinde eğitilmiş LaMDA gibi büyük bir dil modeli, insanlar için anlamlı kalıpları ve yanıtları tanımada yalnızca ustalaşır Lemoine'in LaMDA ile yaptığı konuşmalardan birinde, "Ne tür şeyler size zevk veriyor veya neşe hissettiriyor?" sorusuna "Mutlu ve canlandırıcı bir şirkette arkadaşlarla ve ailem zaman geçirmek" şeklinde yanıt  aldı. Bu, bir insan için mükemmel anlamda bir yanıttır. “Arkadaşlar ve aile ile vakit geçirmekten” keyif alıyoruz. Ama LaMDA hangi anlamda “aileyle vakit geçirdi”? LaMDA yalnızca kendisi için hiçbir şey ifade etmeyen ancak insanlar için anlamlı bir cümleyi türetebilecek kadar iyi programlanmıştır."

İnsanlar da aynı şekilde düşünürken, konuşurken, okurken ve yazarken sembolleri işlerler. Ancak insanlar için bilgisayarların aksine anlam her şeydir. İletişim kurduğumuzda, anlamı iletiyoruz. Önemli olan bir dizi simgenin yalnızca dışı değil, aynı zamanda içi de yani yalnızca sözdizimi değil önemli olan anlambilimidir. İnsanlar için anlamın önemi sosyal varlıklar olmazdandır. Kendime ancak, içinde yaşadığım ve başka düşünen, hisseden, konuşan varlıklar topluluğuyla ilişki kurduğum sürece anlam veririm. Düşüncelerin altında yatan mekanik beyin süreçlerinin anlam dediğimiz şeye çevrilmesi, bu deneyimi anlamlandırmak için sosyal bir dünya ve üzerinde anlaşmaya varılmış bir uzlaşım gerektirir."

YAPAY ZEKÂ İLE İLGİLİ ENDİŞELENMEMİZ GEREKEN BAŞKA ŞEYLER VAR

Malik daha sonra yapay zekâ ile ilgili tartışılması gereken başka konuların olduğunu belirtti:

Yapay zekâ ile ilgili endişelenmemiz gereken birçok konu var. Hiçbirinin önsezi ile alakası yok. Örneğin, önyargı sorunu var. Algoritmalar ve diğer yazılım biçimleri, insan topluluklarından alınan veriler kullanılarak eğitildiğinden, genellikle bu toplumların önyargılarını ve tutumlarını kopyalarlar. Yüz tanıma yazılımı ırksal önyargılar sergiliyor ve insanlar yapay zekânın önyargısı nedeniyle yanlışlıkla tutuklanıyor. Sağlık hizmetlerinde veya işe alımda kullanılan yapay zeka, gerçek hayattaki sosyal önyargıları çoğaltabiliyor.

...

Sonra gizlilik sorunu var. Yüz tanıma yazılımının artan kullanımından tahmine dayalı polislik tekniklerine, bizi çevrimiçi olarak izleyen algoritmalardan Siri, Alexa ve Google Nest gibi evdeki "akıllı" sistemlere kadar, yapay zekâ en içteki yaşamlarımıza giriyor. Florida polisi, Amazon Echo cihazları tarafından yapılan özel konuşmaların kayıtlarını indirmek için izin aldı. Dijital bir panoptikona doğru tökezliyoruz.

Görünüşe göre Lemoine'nin iddia ettiği gibi, üzerinde “deney yapmak” için LaMDA'dan izin almamız gerekmiyor. Ancak teknoloji şirketlerinden ve devlet kurumlarından gözetim ve kontrol için yapay zekâyı kullanma biçimleri konusunda daha fazla şeffaflık konusunda ısrar etmemiz gerekiyor. Yapay zekânın ortaya çıkardığı etik sorunlar, duyarlı bir makinenin fantezisinden hem çok daha küçük hem de çok daha büyük."

KAYNAK: HABER7, THE GUARDİAN
Mustafa Çokyaşar Haber7.com - Teknoloji Editörü
Haber 7 - Mustafa Çokyaşar
YORUMLAR İLK YORUM YAPAN SEN OL
DİĞER HABERLER
Fatih Altaylı'nın Akıncı İHA hazımsızlığı! Türkiye'yi de aciz gösterme çabası
UCM'den tutuklama talebi! Biden duyurdu! ABD'den Netanyahu kararı!