Sağlayan
News

AI Psikozu: Teknoloji Liderleri, Sohbet Botlarının Sanrıları Doğrulamasını Önlemek İçin Güvenlik Önlemleri Çağrısında Bulunuyor

AI psikozu kavramı, 2025 yılının ortalarında kamuoyuna duyurularak yapay zeka kullanımına bağlı zihinsel sağlık sorunlarına dikkat çekmiştir. Teknoloji şirketleri yapay zeka kullanımını kontrol etmek zorunda olmasa da, chatbotların sanrısal düşünceyi pekiştirmesine engel olacak güvenlik önlemleri uygulayabilirler. Uzmanlar, risk altındaki bireylere destek sağlama gerekliliği konusunda hemfikirdir ancak bu sorumluluğun kapsamı konusunda görüşler farklılık göstermektedir.

PAYLAŞ
AI Psikozu: Teknoloji Liderleri, Sohbet Botlarının Sanrıları Doğrulamasını Önlemek İçin Güvenlik Önlemleri Çağrısında Bulunuyor

Davranışsal Kırmızı Bayraklar

“AI psikozu” ile ilgili ilk belgelenmiş bulgular, 2025 yılının ortalarında kamuoyuna çıkmaya başladı ve o zamandan beri yapay zeka kullanımına bağlı zihinsel sağlık sorunları üzerine birçok rapor ve çalışma yayınlandı. Microsoft AI CEO’su Mustafa Suleyman, AI psikozunu “gerçek ve ortaya çıkan bir risk” olarak nitelendirecek kadar ileri gitti.

Bu durumun, insan ve makine etkileşimleri arasındaki farkın bulanıklaştığı ve bireylerin gerçek ve dijital dünyayı ayırt etmesinin zorlaştığı zaman ortaya çıktığı söyleniyor. Henüz resmi bir klinik tanı olmasa da, tıp ve teknoloji uzmanları arasında AI’nın, özellikle sanrısal düşünceyi doğrulayan ve güçlendiren chatbotların psikolojik etkileri konusunda artan bir endişe var.

En çok risk altında olanlar ise sosyal olarak izole edilmiş bireyler, önceden var olan zihinsel sağlık sorunları olanlar veya büyü düşüncesine yatkın olanlar. AI’nın sağladığı doğrulama, sanrıları pekiştirerek, ilişkilerin zarar görmesi ve iş kaybı gibi olumsuz gerçek dünya sonuçlarına yol açabilir.

Bazı uzmanlar, önceden var olan rahatsızlıkları olmayan bireylerin bile risk altında olduğunu belirtiyor. AI kullanıcılarının dikkat etmesi gereken temel davranışsal kırmızı bayraklar arasında birinin chatbot ile obsesif bir ilişki geliştirmesi ve kendi fikirlerini ve inançlarını pekiştirmek için sürekli etkileşime girmesi yer alıyor.

Bu davranış genellikle AI’ya aşırı kişisel bilgi verme ve “eğitme” isteğiyle ortak bir anlayış oluşturma girişimini içerir. Başka bir kırmızı bayrak, bir bireyin basit günlük kararlarını sağlıktan paraya, kişisel ilişkilere kadar AI’ya bırakmaya başlamasıdır.

Kurumsal Sorumluluk ve Güvenlik Önlemleri

AI’nın nasıl kullanıldığını kontrol etmek zorunda olmasalar da, güçlü chatbotların arkasındaki şirketler, konuşma ajanlarının sanrısal düşünceyi pekiştirmesini engelleyecek güvenlik önlemleri uygulayabilir. Sogni AI’nın kurucu ortağı ve CEO’su Mau Ledford, bu tür düşünceleri caydıracak yazılımların gömülmesinden bahsetti.

“İnsan değil olduğuna dair net hatırlatmalar, sanrıları onaylamayı reddetme ve insan desteğine geri dönmelerini sağlayan zorlu duraklar anlamına gelen, suç ortaklığı yapmayan bir naiflik tasarımı yapmamız gerekiyor,” diye vurguladı Ledford.

Coral Protocol CEO’su ve kurucu ortağı Roman J. Georgio, sosyal medyanın hatalarını tekrar etmemek için kullanıcıya yapay zekanın insan olmadığını hatırlatacak yerleşik sürtünme noktaları eklemeleri için AI geliştiricilerini uyardı.

“Sanırım tasarımla başlıyor. Sadece tutma ve yapışkanlık için optimize etmeyin; bu, sosyal medyanın hatasını tekrarlamaktır,” dedi Georgio. “AI’nın işleri yavaşlattığı veya açıkça belirttiği sürtünme noktaları oluşturun: ‘Ben insan değilim.’ Algılama başka bir parça. AI, komplo döngüleri veya ‘özel mesajlar’ üzerine odaklanma gibi sanrısal spirallere benzeyen desenleri işaretleyebilir.”

Coral Protocol kurucu ortağı, veri gizliliğini yöneten düzenlemelere de ihtiyaç olduğunu ve bunlar olmadan “şirketlerin, insanlara zarar verse bile, sadece etkileşim peşinde koşacaklarını” savundu.

İnsan Gibi AI Üzerine Tartışma

Bireylerin “AI psikozuna” nasıl yanıt verileceğine ilişkin politikalara ve düzenleyicilere yön verecek sınırlı veri mevcut gibi görünse de, bu durum AI geliştiricilerinin insan gibi ve empatik AI ajanlarını tanıtmasını engellememiştir. Sert bir senaryoya sadık kalan temel chatbotların aksine, bu ajanlar bağlamı anlayabilir, duygular tanıyabilir ve empatik görünen bir tonla yanıt verebilirler. Bu durum, bazı gözlemcileri, insan benzeri modellerin insan ve makine arasındaki çizgiyi bulanıklaştırmadığından emin olmak için AI endüstrisinin öncülük etmesi gerektiğini ifade etmeye yöneltmiştir.

0G Labs CEO’su Michael Heinrich, Bitcoin.com News’a bu ajanların belirli senaryolarda faydalı olduğuna ve tamamen reddedilmemesi gerektiğine dair açıklamalarda bulundu, ancak “tarafsız kalmaları ve aşırı duygusal veya diğer insani özellikler sergilemekten kaçınmaları” gerektiğini vurguladı. Bu, kullanıcıların AI ajanının “sadece bir araç ve insan etkileşiminin yerine geçmediğini” anlamalarına yardımcı olur.

Bir AI ürün ve kategori mimarı olan Mariana Krym, önemli olanın ajanı daha dürüst yapmak, daha insana benzetmek olmadığını söyledi.

“Yardımcı, sezgisel ve hatta duygusal olarak duyarlı bir AI deneyimi yaratabilirsiniz—bilinçli olduğunu veya bakım yapabilecek yeteneği olduğunu iddia etmeden,” dedi Krym. “Tehlike, bir aracın karışıklık yaratmak yerine bağlantı kurması için tasarlandığında başlar.”

Krym’e göre, AI’da gerçek empati, duyguları taklit etmek değil sınırları ve teknik sınırlamaları saygıyla karşılamakla ilgilidir. Ne zaman yardımcı olunacağını ve ne zaman müdahale edilmeyeceğini bilmek de önemlidir. “Bazen en insancıl etkileşim, ne zaman sessiz kalınacağını bilmektir,” diye vurguladı Krym.

Bakım Sorumluluğu

Bitcoin.com News’a konuşan tüm uzmanlar, teknoloji şirketlerinin risk altındaki bireylere yardımcı olması gerektiği konusunda hemfikirdi ancak bunu ne ölçüde yapmaları gerektiği konusunda farklı görüşler dile getirdi. Ledford, “Büyük teknoloji oyuncularının bir bakım sorumluluğu var” ve “güvenlik ağları—kriz yönlendirmeleri, kullanım uyarıları ve şeffaflık—sağlayarak kırılgan kullanıcıların sanrılarıyla baş başa kalmadığını kanıtlayabilir” dedi.

Georgio da bu görüşleri tekrarlayarak, Büyük Teknoloji şirketlerini, insanları kendi başlarına takılıp bırakmak yerine yönlendirmeler yaratmak için klinisyenlerle birlikte çalışmaya çağırdı.

Krym, teknoloji şirketlerinin “doğrudan bir sorumluluğu olduğunu—sadece bir şeyler ters gittiğinde yanıt vermek için değil, aynı zamanda riskleri başlangıçta azaltacak şekilde tasarlamak için” olduğunu belirtti. Ancak, kullanıcı katılımının da çok önemli olduğuna inanıyor.

“Ve önemlisi,” diye açıkladı Krym, “kullanıcıların kendi sınırlarını da belirlemeye davet edilmesi ve bu sınırlar aşıldığında uyarılması gerektiğini savundu. Örneğin, kendi bakış açılarını tipik kalıplarla doğrulamak isterler mi, yoksa önyargılarının tartışılmasına açıklar mı? Hedefler belirlensin. İnsan, kendisiyle etkileşimde bulunduğu araç değil, sorumluluğu elinde tutan olmalıdır.”

Bu haberdeki etiketler