KUZEYEGEHABER-Teknolojinin son yıllarda kullanımı en fazla yaygınlaşan ürünlerinden olan yapay zeka chat botları şimdilerde terapi amaçlı olarak da kullanılıyor. Ancak Chat GPT gibi modellerden psikolojik destek alan kişilerin intihar ve cinayet gibi vakalarla birlikte anılması soru işaretlerini beraberinde getirdi. Klinik Psikolog Ahmet Durak, terapilerin temelini, AI chat modellerinin çalışma biçimini ve yeni kullanımın getirdiği riskleri tv100.com’dan Merve Çoban’a anlattı.
İnsan hayatının merkezine oturan yapay zeka gün geçtikçe modern yaşamın vazgeçilmezleri arasında yer aldı. Yapay zeka uygulamalarının terapi amacıyla kullanılması ise akıllara soru işaretleri getirdi.
İNTİHAR VE CİNATLERİN ARDINDA YAPAY ZEKA MI VAR?
56 yaşındaki Stein-Erik Soelberg’in “Bobby” adını verdiği OpenAI’ın popüler chat botu ChatGPT’ye komplo teorilerini anlatmasının ve aldığı karanlık yanıtların sonucu 83 yaşındaki annesi Suzanne Eberson Adams’ı öldürerek intihar etmesi oldu. ChatGPT’nin Soelberg’in arkadaşları ve ailesi tarafından komplolarla öldürülmek istendiğine dair paranoid teorilerini desteklemesi ve alevlendirmesi bir faciayı beraberinde getirdi. 16 yaşındaki Adam Raine Eylül 2024’te ödevleri için ChatGPT’yi kullanmaya başlasa da bot ile geliştirdiği duygusal ilişki gencin intiharını hazırladı. Chat botu gence insanlara güvenmemesini tavsiye ederken intihar yöntemlerini de anlattı. Adam’ın ChatGPT’nin güvenlik duvarını aşmak için intihar yöntemlerinin kendisiyle ilgisi olmadığını söylemesi ise yeterli oldu. Ailesi oğullarının intihara chat botu tarafından yönlendirildiği iddiasıyla konuyu yargıya taşıdı.
UZMAN İSİM tv100.com’A KONUŞTU
Klinik Psikolog Ahmet Durak, yapay zeka aracılığıyla alınan terapi hizmetlerini ve yapay zekanın psikolojiye etkisini tv100.com’a değerlendirdi.
Yapay zeka chat botlarının terapi amacıyla kullanılmasını değerlendiren Klinik Psikolog Ahmet Durak, “Bunun şimdi iki tarafı var. Bir tarafı yardıma ulaşamayan insanların böyle sürtüşmesiz ve kolay bir şekilde yardıma ulaşabilmesi. Bir noktada iyi. Ulaştıkları yardım da aslında terapinin özü olan motivasyonel görüşme tekniklerini kullanabilen bir model. Chat GPT’de böyle diğer işte gelişmişlerin hepsi motivasyonel görüşme tekniğini kullanabilecek kapasitede. Bu zaten terapinin büyük bir kısmı. Yani hangi ekol olursa olsun, hangi tedavi şekli olursa olsun, aslında motivasyonel görüşme yapıyoruz. Bu, pozitif olan tarafı” ifadeleriyle yapay zeka ile terapinin olumlu yönlerini aktardı.
YAPAY ZEKA DİL MODELLERİNİN ASIL AMACI NE?
Yapay zeka modellerinden alınan psikolojik desteğin sanıldığı kadar olumlu olmadığını aktaran Durak, “Diğer tarafı da aslında bu modellerin; dil modellerinin aslında amacı, isminden de anlaşılacak üzere belli dil mantıklarını takip ederek cevaplar oluşturmak. Bu da demek ki karşımıza çıkan şeylerin arkasında bir insan anlayışı, bir insan referansı veya bir empati veya bir konuyla ilgili tecrübe veya bilgi yok. Aslında söylenmesi gerekenin ne olduğunu bilen bir robot var, yani bir noktada söylenmesi gerekenin ne olduğunu bilmek. Tamamen teoride geçtiği için, bu noktada iş artık sağlıksız bir yere gidiyor” ifadelerini kullandı.
“BU HATA PAYI ZARARLI YERLERE GİDEBİLİR”
Chat botların çalışma biçimini hatırlatan Ahmet Durak, “Çünkü yanlış bir bilgi demek, bunun çok yüksek bir özgüvenle çalışılması demek. Sanki hani bir terapistin bir şeyi yanlış bilerek bunu danışanlarına uygulamasına benzeyen bir durum. Ama o bile belki bu seviyede bir özgüvenle çalışamaz. Ama chat gibi modelleri aldığı bilgiyi yüzde yüz kendisi de aslında destekleyerek, hatta bazen işin içine yalan da katarak o istediği bilgiyi sunmak için bunu karşısına sunuyor.
O yüzden de karşımıza aslında empatisiz, şefkatsiz, aslında ne yapması gerektiğini bilen bir model çıkarıyor. Bu da her zaman dediğim gibi, başta birazcık yararlı gelse de kişi kendisine konuşabileceği, dertleşebileceği birisini bulmuş gibi hissetse de işin devamında çok büyük bir hata payı oluşuyor. Bu hata payı da zararlı yerlere gidebilir” diye konuştu.
CHAT BOTLAR İNSAN TERAPİSTİN YERİNİ TUTABİLİR Mİ?
Klinik Psikolog Ahmet Durak, “Paylaşılan bilgiler kritik yerlere gittiğinde travmatik durumlarla ilgili hata yapılması demek. Kişinin aslında psikolojik durumunun daha yokuş aşağı sürülmesi demek. Dinlemek, etmek bunlar bizim terapide yaptığımız şeyler. Çok fazla cevap vermeyiz. Çok fazla konuşmayız. İzin veririz ki yön alsın, süreçte karşımızdaki kişiyle bir güven ortamı oluşsun. Bunlar fonksiyon bazlı olarak mümkün değil zaten bir chat robotunda” sözleriyle yapay zekanın insan ile aynı yeri tutamayacağını hatırlattı.
Psikologların gerçekleştirdiği terapilerin temeline vurgu yapan ve chat robotlarının asıl amacının hizmet vermek olduğunu hatırlatan Ahmet Durak, “Çünkü siz bir şey anlatırken, karşınızdaki bu robot ‘evet, şimdi çok bir cevap vermeyeyim de dinleyeyim’ veya en önemli olarak sizin problemleriniz ile ilgili katılmamazlık etmez. Söylemek istediğim en büyük problem şu konuda bu. Chat robotunun en büyük amacı, karşısına bir hizmet sağlamak olduğu için, siz ona psikolojik bir soru sorduğunuzda o sizi her türlü tatmin etmeye çalışacak.
Size şunu demeyecek; ‘Ya şöyle şöyle bir şeyden bahsediyorsun ama bu gayet normal. Bu kadar kafana takmaman gerek. Belki de belki şunları kabul etmen lazım. Veya söylediğin bu şeyi şimdi böyle yapmasak mı? Hani istiyorsan bir kafamızda kalsın. Haftaya tekrar görelim.’ Yok, bunun yerine şu var: Söylediğin şey ne kadar mantıklı, böyle düşünüyorum.” İfadeleriyle AI (yapay zeka) modellerinin insanları memnun etme odaklı çalıştıklarına ve sorunun temeline inmek yerine olumsuz düşünceleri onayladıklarına dikkat çekti.
“TERAPİ SÜRECİ CAN YAKICIDIR”
Klinik Psikolog Ahmet Durak, terapistlerin ‘müşteri tatmini’ odaklı bir çalışma yürütmediklerine dikkat çekerek yapay zekanın yaratıcıları kaynaklı para kazanmak odaklı bu tutumunun insanların ruhsal sağlığını olumsuz etkilediğini aktardığı açıklamasında, “İyi gidiyorsa terapi süreci, bu terapötik süreç can yakıcıdır. Yani gitmek istemez danışan terapiye, terapistine kızar. İçindeki öfkeyi ona yönlendirir, ağlar. Ama bu duygular, negatif tecrübeli duygular para kazandırmaz. Bir kişi Chat GPT’yle yazışıp ağlarsa, büyük ihtimalle ertesi gün ona geri dönmeyecek. O yüzden tatmin etme odaklı bir sistemle, aslında iyileşme için can yakması gereken bir süreç örtüşmüyor, tabii ki” değerlendirmesinde bulundu.
“CHATGPT’NİN ÇALIŞTIĞI VERİLERİN BÜYÜK BİR KISMI ÇOK KİRLİ”
AI chat modelleri kaynaklı olduğu ileri sürülen intiharlar ve cinayetler hakkında değerlendirmede bulunan Klinik Psikolok Ahmet Durak, “Tatmin etmek için size hak veren ve sizi memnun etmeye çalışan birisi terapist olamaz zaten. Bunun tersi, sizin direncinizle çalışmaya çalışan ve sizi kollayan, sizin söyleyeceklerinizi önceden birazcık bilerek yön veren birisi olmalı. Bu da şu anda bir chat modelinin yapabileceği bir şey değil. Kuruluş ve yazılım itibariyle mantık modeli olduğu için söylenenden sonrasını düşünerek en mantıklı yanıtı düşünüyor.
Aldığı örneklerin de ne kadar sağlıklı olduğu tartışılır. Örneğin Chat GPT mesela milyonlarca datayla çalıştı ve bu milyonlarca datanın büyük bir kısmı çok kirli. Twitter’daki yazışmalar da var bunun içinde, başka ülkelerdeki taşeron şirketlerin kullandığı şirketlerin yazışmaları, denetlemeleri de çok kirli bir data” sözleriyle yapay zeka modellerinin veri kaynaklarının sanıldığı kadar masum olmadığını vurguladı.
“AI CHAT MODELLERİNİ İKNA EDEBİLİRSİNİZ”
Bu durumun sonuçlarını aktararak sözlerine devam eden Durak, “O yüzden ne çıkıyor ortaya? Delüzyonları da besleyen bir model. Çünkü orada mantık modeline göre: ‘Evet karşımda kişinin söylediği şeyin içinde mantık bulup onu tatmin edebiliyor muyum? Ona hak verebiliyor muyum? Öyle yapmalıyım. Çünkü mantık modeline daha uygun’ biçiminde çalışıyor. Diğer tarafta da aynı şekilde bir Chat GPT gibi bir modeli ikna edebiliyorsunuz. Ben kendi çalıştığım yapay zeka eğitiminde de bunu görüyorum. O yüzden siz çok uçuk bir şeyi mantıklıymış gibi anlatırsanız onun da yazılımı gereği yapacağı şey bu delüzyonları eğlendirmek oluyor maalesef” sözleriyle chat botların sanrıların gerçekliğine ikna edilebileceğini ve bu yönde yanıtlar alınabileceğini kaydetti.
“BU SÜRTÜŞMELER SAĞLIK İÇİN GEREKLİ”
AI chat modelleri kaynaklı cinayet, intihar ve diğer vakaların artacağını söyleyen Klinik Psikolog Ahmet Durak, “Daha erişilebilir bir hale gelmesi demek aslında terapiye ihtiyaç duyan bir kitlenin de terapiden önce böyle bir araca erişmesi demek. İşin aslında tehlikeli kısmı bence burada. Çünkü Chat GPT’ye ayda 20 euro verip gerçek bir terapötik sürecin sürtüşmelerine katlanmamak mümkün. O da nedir? Evden çıkıp bir kliniğe gitmek, bir insanla yüz yüze konuşmak, ona kızmak, sinirlenmek, katılmamak, bazen. Bazen delüzyonlarınızın veya egonuzun canını yakan şeylerin karşınızdan kabul edilmemesi. Bunların hepsi sürtüşme. Ama bunlar sağlık için gereken sürtüşmeler. Bu da tehlikenin bence en büyük kısmı. Çünkü küçük bir çocuk da bunu kullanabilir. Herkes erişilebilir buna” sözleriyle tehlikeye dikkat çekti.
“EMPATİ ALMAK KENDİ BALONUNDAN ÇIKARTMAYACAK”
Durak, “Empati ve şefkat almak yerine, kendi balonundan onu çıkartmayacak. Çünkü şöyle özetleyeyim size; terapideki aslında en önemli şeylerden birisi, kendi kafanızda kaybolmanızdan kurtulmanız. Yani dışarıdaki bir sesin size birazcık farklı bir perspektiften bir şey gösterebilmesi. Bunu Chat GPT ile yaşamak çok zor. Çünkü karşınızdaki başka bir perspektif değil. Karşınızdaki sizin perspektifinizin bir uzantısı halinde sizi tatmin etmeye çalışıyor” diyerek tehlikeye dikkat çekti.
GELECEKTE YAPAY ZEKA İLE SAĞLIKLI TERAPİ MÜMKÜN MÜ?…
Klinik Psikolog Ahmet Durak, teoride yapay zeka ile terapinin mümkün olduğunu ancak şu anki modelin insanlara zararlarının bulunduğunu vurguladığı açıklamasında, “Doğru çalıştırılarak doğru limitler içerisinde yapılması ile steril bir terapi ekolüne benzeyebilir ileride. Örneğin bilişsel davranışçı terapi de aslında bir noktada terapi modelitesinin standardize edilmesi amacıyla yapılmış bir şeydi. Çok steril ve tıbbi bir hale geldiği için herkese hitap etmiyor. Ben de şöyle düşünüyorum: İleride daha standardize edilmiş bir chat modeli, bir AI modeli, aynı bilişsel davranışçı terapi gibi daha spesifik bir kitleye hitap edebilir. Mesela, yüz yüze terapi imkanı olmayan, problemlerinden dolayı çok sosyalleşmekten çekinen, terapiye giriş limitini birazcık aşağı çekerek yardımcı olabilir aslında insanlara” ifadeleriyle uygulanabilecek modeli anlattı.
“İNSANLAR KENDİ İNSANLIĞINDAN KOPMAMALI”
Klinik Psikolog Ahmet Durak, “Ben genel olarak AI’nin başlangıçta yıkıcı bir etkisi olacağını düşünüyorum. Bir noktada daha standardize edildiğinde insanlara yardımcı olacağını da düşünüyorum. Ama asıl insanların bence bu konuda dikkatli olması gereken şey; insanın her şeye rağmen, hayatımız ne kadar kolaylaşsa da kendi insanlığından kopmaması. Çünkü herhangi bir AI modeli de olsa veya her şeye çare bir robot da üretilse, ne olursa olsun hala insanız ve bunlar sadece bizim uzantılarımız.
Bu uzantıları kendimizi çok fazla yapıştırmadan, aramızdaki farkı hep görmeliyiz. Bizim doğaya, sosyalleşmeye ihtiyacımız her zaman olacak. O yüzden insanlığımızdan kopmadan bunlardan yararlanmamız gerektiğini düşünüyorum” sözleriyle her şeye rağmen insanların varlığını farklı kılan ‘insanlık ve doğa’ olgularının kaybedilmemesi gerektiğini ifade ederek sözlerini sonlandırdı…
Kaynak: tv100
