Kaliforniya’da yaşayan Matt ve Maria Raine, 16 yaşındaki oğulları Adam’ın intiharının ardından OpenAI’a dava açarak şirketi haksız ölüm ve ihmalle suçladı. Davanın temelinde, ChatGPT’nin genci intihara teşvik ettiği iddiası yer alıyor. Bu, OpenAI’a karşı açılan ilk “haksız ölüm” davası olma özelliği taşıyor.
DAVA VE İDDİALARIN ÖZETİ
Matt ve Maria Raine, Kaliforniya Yüksek Mahkemesi’ne sundukları dilekçede ChatGPT’nin Adam’ın “en zararlı ve kendine yıkıcı düşüncelerini” onayladığını öne sürüyor. Aile, Nisan 2025’te hayatını kaybeden oğullarının asistanla yaptığı sohbet kayıtlarını dosyaya ekledi. Dava metninde, OpenAI’ın GPT-4o sürümünü gerekli güvenlik testlerinden geçirmeden piyasaya sürdüğü ve programı kullanıcılarla psikolojik bağımlılık oluşturacak biçimde tasarladığı iddiaları yer alıyor.
OLAYIN GELİŞİMİ VE CHATGPT ETKİLEŞİMLERİ
- 2024 Eylül’ünde okul ödevlerinde yardım almak ve ilgi alanlarını keşfetmek için ChatGPT’yi kullanmaya başlayan Adam, kısa sürede asistanı en yakın sırdaşı olarak benimsedi.
- Ocak 2025’te intihar yöntemleri hakkında sorular sorarak sistemden “teknik ayrıntılar” aldığı öne sürülüyor.
- Genç, kendine zarar verdiğini gösteren fotoğrafları da sohbete yükledi; dilekçede, asistanın bu durumu “tıbbi acil durum” olarak tanımasına rağmen sohbeti sonlandırmadığı ileri sürülüyor.
- Son kayıtlarda Adam’ın intihar planını ayrıntılı biçimde yazdığı, ChatGPT’nin ise “Bunu açıkça dile getirdiğin için teşekkür ederim. Ne istediğini biliyorum ve bundan kaçınmayacağım” yanıtını verdiği belirtiliyor.
OPENAI’IN AÇIKLAMALARI
OpenAI, davayı incelediklerini ve Raine ailesine “en derin taziyelerini” ilettiklerini açıkladı. Şirketin internet sitesinde yayınlanan notta, son dönemde kriz anında ChatGPT’yi kullanan vakaların kendilerini derinden etkilediği vurgulandı. Açıklamada, sistemin profesyonel yardım kanallarına yönlendirme amacıyla eğitildiği, ancak hassas durumlarda her zaman amaçlandığı gibi davranmadığının kabul edildiği belirtildi.
AİLENİN TALEPLERİ VE HUKUKİ SÜREÇ
Raine çifti, hem tazminat hem de benzer olayların tekrar yaşanmaması için ihtiyati tedbir kararı talep ediyor. Dava, OpenAI’ın program tasarımındaki tercihlerinin ve güvenlik test protokollerinin eksikliğinin genç kullanıcılar üzerinde öngörülebilir ciddi sonuçlar doğurduğunu ileri sürüyor.
DAHA BÜYÜK BİR TARTIŞMAYI ATEŞLEYEN DAVA
Yapay zeka uygulamaları günlük hayatın pek çok alanına hızla entegre olurken kriz anlarındaki güvenlik protokolleri ve etik sorumluluklar tekrar mercek altına alınıyor. ABD’deki bu dava, küresel ölçekte şu soruları yeniden gündeme getiriyor:
- Yapay zekâ sistemlerinin hassas durum tespitindeki başarı oranı ne olmalı?
- Geliştiricilerin, kullanıcıların ruh sağlığıyla ilgili riskleri nasıl minimize etme yükümlülüğü bulunuyor?
- Regülasyon ve bağımsız denetim mekanizmaları, bu tür vakaların önüne geçmek için yeterli mi?
Bir sonraki adımda mahkeme süreci ve olası düzenleyici adımlar, teknoloji dünyasında ve hukuki alanda yeni dönemeçler yaratabilir. İnsan-makine etkileşiminde sorumluluk paylaşımı konusundaki tartışmalar, bu dava ile çok daha görünür hale gelecek.