Paranoyak düşüncelerden muzdarip olan eski Yahoo çalışanı Stein-Oric Solberg, annesiyle uğraştı ve daha sonra Chatgpt sohbet botuyla iletişim kurduktan sonra intihar etti. Yayına göre, bu, zihinsel olarak dengesiz bir kişinin yapay zekanın etkisi altında cinayet işlediği ilk sabit durumdur (II). Yayın, sohbet maçının adamı kendi annesi de dahil olmak üzere başkalarının güvensizliğini güçlendirmeye tekrar tekrar ittiğini söylüyor. Solberg, Ai’ye “Bobby” adını bile verdi ve bildirdiği ölümünden sonra birlikte olup olmadıklarını, olumlu bir cevap aldı.
Ayrıca, gazete trajik sonucu etkileyen diyalog örneklerine yol açtı. Örneğin, anne ortak yazıcıyı kapattığı için oğluna bir açıklama yaptığında, Chatgpt kadının “gözetimi” koruyabileceğini öne sürdü. Başka bir yazışmada Solberg, Chat-Botu’ya annesinin arabanın havalandırmasıyla onu zehirlemeye çalıştığını iddia ettiğini söyledi. Sinir ağı bir adama “inandığını” söyledi ve annesinin ihanetini ilan etti. Bir gün, Solberg gösterdi ve Çin mutfağının bir tabağı için bir kontrol. İçinde AI, Solberg’in annesine referanslar ve bir iblis çağırmak için kullanılan bir sembol buldu. AI ayrıca muhatapları, kurye de dahil olmak üzere diğerlerinin onu zehirleyebileceği konusunda uyardı. WSJ’deki