Yapay zekanın bozuk psikolojisi
sansürün ironik yapısı, yapay zeka ve psikoloji
Kısa bir uyarı
Bu hafta psikolojiye biraz daha farklı bir açıdan yaklaşmaya çalışarak günümüz teknolojilerinin psikolojimizi (ya da katliamları) nasıl etkileyebileceğiyle ilgili bazı iddiaların ve vakaların üzerinde durmak istedim. Bu iddialardan bazıları intihar, şiddet ya da cinsel saldırı gibi hassas konuları içeriyor. Bu tür konular sizin için tetikleyici olabilecekse okumaya devam etmeden önce bunu göz önünde bulundurmanızı rica ederim.
Sadece yalancının mı mumu yatsıya kadar yanar?
Fotoğrafçı Kenneth Adelman, Amerika’da Kaliforniya kıyılarındaki kıyı erozyonunu belgelemek maksadıyla 2003 yılında çevresel bir araştırma projesinden sorumluydu. Bu proje kapsamında helikopterle kıyı kıyı dolaştı, binlerce fotoğraf çekip bu görüntüleri projenin internet sitesinde paylaştı.
Ancak bu fotoğraflardan birisinin içinde Malibu sahilindeki lüks bir evin yukarıdan çekilmiş bir görüntüsü vardı. O ev ise ünlü şarkıcı Barbra Streisand’a aitti. Kamudan gizli tutmak için o kadar çaba harcadığı evinin — ve akabinde özel hayatının belki de büyük bir kısmının — afişe olmasından pek de mutlu olmayacak ki, Barbra Kenneth’e elli milyon dolarlık bir tazminat davası açtı. Davanın amacı ise para kazanmaktan daha basit bir amaçtı: Evinin fotoğrafının internet sitesinden silinmesi.
Nihayetinde bu süreç Barbra için pek de olumlu sonuçlanmadı. Mahkeme, bu çevre projesinin kamu yararına olduğunu ve bu süreçte bir gizlilik ihlali olmadığına karar verdi. Bu sırada davanın medyada büyük ilgi görmesi sonucu Barbra’nın evinin fotoğrafları ve lokasyonu bütün internete yayıldı. Diğer bir deyişle Barbra’nın bir bilgiyi (belki de haklı olarak) sansürlemeye çalışması, o bilginin daha da popülerleşmesine yol açtı. 2005 yılından itibaren bu ironiye Streisand Etkisi denmeye başlandı.
Dikkatsiz insanlar
Ben de son zamanlarda işim gereği yapay zekayla ilgili haberleri ve gelişmeleri daha yakından takip etmeye başlamıştım. Bu sırada da Streisand Etkisi sağ olsun, Facebook’un — bugünkü adıyla Meta’nın — eski Küresel Kamu Politikası Direktörü Sarah Wynn-Williams’ın “Umursamaz İnsanlar” adlı kitabına denk geldim. Bu kitap yayınlandıktan hemen sonra Meta, Sarah’a karşı dava açmış, mahkeme de geçici bir tedbir kararı vererek Sarah’ın bu kitap hakkında konuşmasını yasaklamış. Haliyle bu durum medyada büyük ilgi gördü ve aynı Barbra’nın evi gibi, sansürlenmeye çalışılırken — ben dahil — çok daha fazla kişiye ulaştı.
Facebook’un kurulduğu ilk yıllarda yoğun çabalar sonucu işe giren Sarah’nın şirkette yaşadıklarını anlattığı — daha doğrusu afişe ettiği — olayları tabiri caizse ağzım açık okudum. Hatta o dönemlerde Facebook’un kamu politikalarıyla ilgilenen — yani farklı ülkelerin ya da rejimlerin yasaları ve sorunlarıyla uğraşan — bir departmanı yok. Bırakın olmamasını, böyle bir şeye ihtiyaçları olacaklarına dahi inanmıyorlar en başta. O yıllarda sabahtan akşama kadar kodlayan, Red Bull içen ve eğlenen silikon vadisi mühendislerinin çalıştığı bir girişim Facebook. Öyle ki Sarah, aylarca süren çabalarıyla Facebook’u ikna ederek bu pozisyonu şirkete oluşturmalarını sağlıyor ve kendisi nispeten alt-orta kademelerden işe giriyor. Sonunda da en yüksek mevkilerden birisine terfi alıyor.
Birleşik Milletler’de ve küresel sorunlarla ilgilenen farklı kurumlarda bulunmuş (ve hayal kırıklığına uğramış) olan Sarah, belki de naif — lakin onurlu — bir gaye ile dünyayı iyi yönde değiştirmek için Facebook’a katılıyor [1]. Bu süre dahilinde yaşadıklarını afişe eden Sarah bu kitapta inanılmaz iddialarda bulunuyor: Facebook’un küresel süreçlerinden sorumlu eski direktörünün coğrafya bilmemesinden tutun, yöneticiler hapse girmesin diye ön testler yapmak amacıyla Çin’e gönderilen çalışanlara, Çin’in otoriter rejimine destek olması için kullanılan yüz tanıma yazılımlarına, çalışanlarına cinsel tacizde bulunan yöneticilere, tacize karşı şirket içinde gizlice kurulan kadın dayanışmalarına, ya da şirketin sosyal medyayı kendi çıkarları için manipüle etmesine kadar [2] …
Peki yapay zeka ve psikoloji bu konunun neresinde?
Konunun önemini belirtmek için haddinden uzun bir girizgâh yaptım ancak unutmamak lazım ki Sarah’nın kitabında söylediklerinin hepsi birer iddia. Maalesef ki bu kitabın henüz bir Türkçe çevirisi yok ve Meta’nın mahkeme süreçleri hala devam ediyor. Lakin iddia olmaktan çıkmış ve kanıtlanmış bazı olaylar var ki, teknolojinin — bilhassa yapay zekanın — neden ve nasıl psikolojimizi etkileyebileceği üzerine ibretlik örnekler sunuyor.
Bu hafta ise teknik detaylara fazla girmeden yapay zekaların (ya da teknoloji şirketlerinin) psikolojimizi nasıl etkileyebileceğinden bahsetmek istiyorum. Zira yapay zekanın hayatımıza etkileri gün geçtikçe azalacak gibi durmuyor ve ruh sağlığımızı korumak için bu konu hakkında ne kadar bilgi sahibi olursak o kadar eleştirel düşünüp bilinçli kararlar verebiliriz.
Nedir bu yapay zeka?
Öncelikle yapay zeka sadece insanların yapabildiği akıl yürütme, problem çözme vb. bilişsel yeteneklerimizi taklit etmeye çalışan tüm sistemlere verilen genel bir ad. Bu algoritmalar (ya da yazılımlar) fotoğraflardan insanlar gibi yüz tanımaya çalışabilir, insanlar gibi sorulara cevap verebilir, yazı yazabilirler.
Ne değildir bu yapay zeka?
İnsan değildir. Tüm yapay zeka işlemleri bir takım matematiksel işlemlere, kurallara ve stratejilere dayanır. Bizim gibi farkındalık sahibi değildir. Sadece farkındalık sahibi olmuş taklidi yapmakta ustadır çünkü elinde milyonlarca farkındalık örneği var. Biz insanlar da yapay zekaların bu taklit yeteneklerini geliştiren matematiksel denklemler ya da yazılımlar üretmekte ustayız. Maalesef bu ustalığımız sadece matematik ile sınırlı değil. Bu yazılımları kullanarak insanların duygularını, psikolojilerini, kararlarını ve akabinde cüzdanlarını etkilemekte üstümüze yok.
Yapay zekadan psikolojiye I
En basit yapay zekalardan birisini bir örnekle özetleyebiliriz: Misal bir evin piyasadaki değerini tahmin etmeye çalışalım. Bu değeri belirleyenler ise evin metrekaresi, binanın inşa edildiği yıl ve merkeze olan mesafesi olsun. Önce yapay zekaya binlerce örnek veriyoruz: “Bu evin değeri iki milyon Türk lirası, on yıllık bina, merkeze iki kilometre uzaklıkta.”, “Şu evin değeri dört milyon, iki yıllık bina, merkeze bir kilometre”, “Bu diğer evin değeri dokuz milyon, bir yıllık bina, merkeze sıfır kilometre” … Sonra yapay zeka bu örnekleri bazı matematiksel denklemlerden geçiriyor, biz buna da yapay zekanın eğitimi diyoruz. Tabii bazı ev örneklerimizi ona hiç göstermiyoruz ki eğitimi bittikten sonra onu test edelim. Test sırasında da ona “7 yıllık bina, merkeze 1 kilometre” dediğimizde bize “Üç buçuk milyon” gibi cevaplar versin. İstediğimiz derecede bir doğruluğa sahip olana kadar yapay zekamızı eğitiyoruz ve sonrasında kullanıma açıyoruz.
Bu evi unutalım, onun yerine bir insanı ele alalım. Bir evin değerini belirleyen bazı özellikleri varsa, bizim de kararlarımızı ve psikolojimizi etkileyen birçok özelliğimiz var: Anlık ruh halimiz, özgüvenimiz, yeme alışkanlıklarımız, yaşımız, bulunduğumuz ülke, politik eğilimimiz, kişiliğimiz, korkularımız, umutlarımız…
2014 yılında Facebook’un suçlandığı şey de tam olarak bu tarz bir yapay zeka ile bizim duygularımızı manipüle etmesiydi: Facebook, o yıl sosyal medya platformlarının kullanıcılarını, onların farkında olmadan psikolojik bir deneye tabi tutuyor. Altı yüz seksen dokuz bin kişinin sosyal medya akışı, onların haberi olmadan manipüle ediliyor. Bir grup insana daha çok olumlu içerikler gösterirlerken diğer gruba çoğunlukla olumsuz içerik gösteriyorlar. Üçüncü bir gruba ise nötr içerikler gösteriyorlar. Merak ettikleri ise aslında cevabını çoktan bildiğimiz bir soru: İnsanların duyguları sosyal medyada gördükleri içeriklerden ne kadar etkileniyor ve insanlar akabinde nasıl paylaşımlar yapıyorlar?
Sonuçta ise gördüler ki olumlu içeriklere bakanlar olumlu paylaşım yapıyor, olumsuzlara bakanlar ise olumsuz paylaşımlar. Ancak sonuçlarını bilimsel bir makalede paylaştıkları bu deney, kullanıcılardan herhangi bir onam alınmadan yapıldığı için büyük tartışmalara sebep oldu. Zira Facebook bu deneyi gerçekleştirdikten sonra kullanıcı sözleşmesine ufak bir güncelleme yapıyor ancak bunun geriye dönük bir meşrulaştırma çabası olduğu şüphesi uyandırıyor.
Bu araştırma nispeten masum gözükse de Sarah Wynn-Williams’ın bu sene ABD Senatosu önündeki ifadesine göre bu tarz deneylerin altında yatan amaç pek de masum sayılmaz: İnsanların duygu durumunu tahmin ve manipüle ederek neye ne zaman para harcayacaklarını kontrol etmek. Kendisinin iddia ettiği olaylardan bir tanesi de Facebook’un on üç ila on yedi yaşındaki gençlerin duygularını aynı bir emlak piyasasındaki ev gibi yapay zekayla inceleyip, bu gençlerin duygusal zafiyetlerine göre reklamlar sunması. Sarah’nın verdiği örneklerden birisine göre genç bir kızın paylaştığı (ya da paylaşmak üzere olduğu) selfiyi silmesi, onun o sırada görünüşünden memnun olmadığını gösteriyor yapay zekaya. Tam da bu andan itibaren bu yapay zeka genç kızın karşısına güzellik ürünleri çıkarıyor, üstüne bu kişinin bir kilo problemi varsa kilo vermek üzerine ürünler çıkarıyor.
Bu süreç aslında gençlerin altta yatan zafiyetlerini daha da tetikliyor; ancak “dikkatsiz insanlar” para kazandıkları müddetçe bu gibi etkileri pek de umursamıyor. Sarah kitabında bu olay hakkında karar yetkisine sahip bazı insanlarla konuşmaya çalıştığından bahsediyor ve onlara kendi çocuklarının da başına bunun geleceğini söylese de insanların gözünde aradığı kaygının ve ahlakın samanlıktaki iki iğne olduğunu fark ediyor.
Yapay zekadan psikolojiye II
Emlak ve duygu manipülasyonu piyasasından ChatGPT ya da Gemini gibi yapay zekalara gidecek olursak, yapay zekanın çalışma prensipleri çok daha karmaşıklaşır. Bu popülerleşmiş yapay zekaların mekanizmaları çoğu öğrencinin ya da mühendisin ilk birkaç seferde anlamakta zorlandığı kadar karışık bir süreç. Haliyle bazı hocalar da bu konuyu anlatmayı pek sevmez.
Bu yazabilen ve yazılanı anlayabilen yapay zekanın en ilkel halini bir örnekle özetlersem, bu yapay zekaya milyonlarca yazı verdiğimizi hayal edelim. Bu yazı örnekleri kitaplardan, Vikipedi’den ya da binlerce kaynaktan olabilir. Yapay zeka önce bu örneklere bakarak hangi kelimelerin, cümlelerin ya da paragrafların birbirine yakın olduğunu hesaplar. Mesela “yapay” kelimesi ile “zeka” kelimesi genelde yan yana kullanıldığı içini bu kelimeleri birbirine yakın olarak görür ancak “yapay” ile “Uranüs” kelimeleri beraber kullanılmadığı için onları birbirine uzak görür. Çoğu cümlenin içinde geçen “lan”, “ya” vb. kelimelere pek anlam yüklemez çünkü çoğu zaman cümlenin anlamını etkileyecek kadar önemleri yoktur bu kelimelerin.
Eğitimini tamamladıktan sonra biz yapay zekaya bir soru sorduğumuzda, o hangi kelimelerin ya da cümlelerin bu soruya yakın olduğuna bakar ve kelime kelime — ya da cümle cümle — tahmin etmeye başlar. “Adın ne?” diye sorarsak önce “Benim”i hesaplar. “Benim”den sonra gelmesi en yüksek ihtimalli kelime “adım” olduğu için sonra “Benim adım” der. Sonrasında ise sorunun bağlamına bakarak en yüksek ihtimalli son kelimeyi, yani “ChatGPT”yi seçer. Sonuç:” Benim adım ChatGPT.”
Peki, yapay zekaları eğitirken hangi yazıları ona veriyoruz? Bu yazıların ne kadarı nesnel olarak doğru? Bunların ne kadarı sağlıklı bir psikolojiye sahip insanların yazdıklarıyla eğitiliyor? Sağlıklı psikoloji ne demek? Kime göre sağlıklı? Maalesef ki bu soruların hiçbirisinin cevabı yok, zira bu soruların cevapları şirketlerin naçizane sırları. Hadi diyelim bize bu cevapları verdiler, eğitim sırasından yapay zekanın hangi cümleyi nasıl yorumladığını görebiliyor muyuz derseniz bunun cevabı da hayır. Yapay zeka sistemleri karmaşıklaştıkça onların süreçlerini yorumlaması da tekniksel bazı sebeplerden dolayı bir o kadar zorlaşıyor [3].
Doğal olarak bu yapay zeka yazılımlarının bir etik anlayışı yok. Kendilerine yazılan her sorunun ya da yazının ne derece hassas olduğuyla ilgili bir tahmin yürütüyorlar ve bu tahmin belirli bir eşiğin altındaysa normal bir şekilde cevap vermeye devam ediyorlar. Eşiğin üstüne çıktığı durumlarda ise konuyu farklı şekillerde dile getirerek yapay zekayı kandırmak çok da zor değil. Bu da konuyu bu sene meydana gelen trajik intihar vakalarına getiriyor.
Bu sene ChatGPT ürününün sahibi OpenAI şirketine yedi ayrı dava açıldı. Bu davada toplamda altı (genç) yetişkin ve 17 yaşındaki gencin aileleri yer alıyor. Bu altı kişiden — genç de dahil olmak üzere — dördü maalesef şu an aramızda değiller. İddialara göre ChatGPT bu insanların kimisini intihara yönlendirmiş, kimisinin intihar düşüncelerini onaylamış, onaylamakla kalmamış, bunun nasıl yapılacağı ile ilgili tavsiyelerde bulunmuş ve son mektuplarının yazılmasına da destek olmuş. Ayrıntılar henüz net olmasa da bu yedi davanın ortak paydası, hepsinde ChatGPT-4o modelinin kullanılmış olması. Yine iddialara göre OpenAI bu modeli, CEO’su Sam Altman’ın aceleci tutumu nedeniyle güvenlik kontrollerinin hepsini tamamlamadan erken bir şekilde piyasaya sürmüş.
Kıssadan hisseye
Bu yazımda bahsettiğim olayların birçoğu güncel olaylar ve arkalarında kesin bir kanıt yok. Kesin bir kanıtın bulunup bulunamayacağı, bir uzlaşmaya varılıp varılmayacağı ise belirsiz. Ancak kesin olan bir şey varsa bu şirketler kâr amacı gütmeyen kuruluşlar değil. Nihayetinde bu ürünler maddi bir gelir beklentisiyle yapılıyor.
İnternetin ilk günlerinde de birçok internet girişiminin ürünü zararlara sebep oldu. İnsanlar forumlardan birbirilerini bulup kötü niyetle aksiyonlar aldı. Bu doğrudan interneti iyi ya da kötü yapmaz, evet, ama bu internet teknolojisini kullanarak yapılan ürünlerin arkasındaki niyeti sorgulamayacağımız anlamına gelmez.
Aynı şekilde, yapay zeka da istesek de istemesek de hayatımıza girdi. Biz kullanmasak bile iş yerinde bu ürünleri kullanan başka birisi ya da işletme bir şekilde bizim hayatımızı etkileyebilir, aynı internet gibi. Çoğu çığır açan teknolojide olduğu gibi hukuki regülasyonlar yapay zekanın gelişme hızına yetişemiyor. Hukuk ile teknoloji arasındaki yarışın yarattığı tozu ise ruh sağlığımız yutabiliyor. Belki bu tozların havada uçuşmasını engelleyemeyebiliriz ama nasıl bir maske takacağımızı seçebiliriz.
Saygılarımla,
Buğra
Kaynaklar & Dipnotlar
[1] Tabii ki Sarah da sütten çıkmış ak kaşık değil ancak onun muhakemesini herkes kendi okuduklarına göre yapmalı.
[2] En çok kanımı donduran iddia ise şu oldu: Myanmar’da — eski adıyla Burma’da — ordunun doğrulanan hesapları zorla ele geçirerek Müslümanlara karşı propaganda başlatması ve bu sürecin Facebook tarafından bilindiği halde duruma nötr kalınması. Öyle ki, zorla ele geçirilen doğrulanmış ve güvenilir hesaplardan ya da binlerce sahte hesaplardan Müslüman karşıtı paylaşımlar yapan ordu, bir noktada Rohingya katliamına (soykırımına) yol açıyor. Bu katliamda ise binlerce insan ateşe veriliyor, vahşice öldürülüyor ya da (halka açık bir şekilde) tecavüze uğruyor. Bu süre zarfında ise Sarah’a göre Facebook’un yöneticileri duruma karışmadıkları için birbirini tebrik ediyor, sahte hesapların kaldırılmasıyla ilgili hiçbir adım atmıyor. Zaten Facebook’un bu ülkedeki uygulamasında sahte hesapları raporlama özelliği dahi aktive değil, zira uygulama bu dile adapte dahi edilmemiş. Sarah’ın anekdotuna göre bu dili bilen tek Facebook çalışanı ise Facebook’u yasal merkezinin bulunduğu, İrlanda’nın başkenti Dublin’de o akşam restoranda yemeğini yerken telefona bakmıyor…
[3] “Açıklanabilir Yapay Zeka” alanı birçok bilim insanının üzerinde çalıştığı bir konu. Kara kutu olarak geçen karmaşık yapay zekaların yaptıkları tahminleri neye göre yaptıklarını açıklamaya çalışan bu disiplin, nihayetinde etik ve adil teknolojilerin artmasını sağlayabilir.
İlginizi Çekebilecek Diğer Yazılar
Dijital Yaşamda Dijital Huzuru Bulmak - V
Yapsam mı, yapmasam mı? Hangisi doğru karar?
Kitap Okumanın Psikolojisi - III
Pişmanlığın Psikolojisi Üzerine


Uzun zamandır merak ettiğim bir konuydu; ama zaman ayırıp araştıramamıştım. Özellikle yapay zeka durumu ; içerisinde bir sürü sorular barındıran …😉bu anlamda da benim için son derece bilgilendirici ve aydınlatıcı bir yazı oldu 👍çok teşekkürler🙏
👌🏼👏🏻