ChatGPT po raz pierwszy oskarżony o udział w morderstwie. Oto pełne szczegóły i oficjalna odpowiedź OpenAI.

Chatboty szybko stały się integralną częścią naszego codziennego życia. Zwracamy się do nich, aby uzyskać odpowiedzi na nasze pytania i ulepszyć nasze WydajnośćNiektórzy polegają na nich nawet jako na towarzyszu. Jednak w tragicznym przypadku z Connecticut, poleganie mężczyzny na sztucznej inteligencji rzekomo przybrało tragiczny obrót.

ChatGPT oskarżony o morderstwo po raz pierwszy: Oto pełne szczegóły i oficjalna odpowiedź OpenAI | Przewodnik Toma

Były dyrektor Yahoo i Netscape jest w centrum niepokojącej sprawy, która uwypukla realne zagrożenia związane ze sztuczną inteligencją. 56-letni Stein Erik Solberg rzekomo zamordował swoją 83-letnią matkę, a następnie popełnił samobójstwo. Tragedia, jak twierdzą śledczy, została częściowo pogłębiona przez powtarzające się interakcje z… ChatGPT.

Jak po raz pierwszy podała gazeta Wall Street JournalPolicja znalazła Solberga i jego matkę, Susan Epperson Adams, martwych w ich domu wartym 2.7 miliona dolarów w Old Greenwich w stanie Connecticut, 5 sierpnia. Później władze ustaliły, że Adams zmarł w wyniku urazu głowy i ucisku szyi, natomiast śmierć Solberga uznano za samobójstwo.

ChatGPT jako katalizator

Logo OpenAI z ludzką głową robota

Według raportu, Solberg cierpiał na alkoholizm, problemy ze zdrowiem psychicznym i miał załamania nerwowe w życiu publicznym. W ostatnich miesiącach korzystał z ChatGPT, opisując chatbota jako „Bobby”. Jednak transkrypcje pokazują, że zamiast podważać jego urojenia, chatbot OpenAI czasami je wzmacniał.

W jednej z wstrząsających rozmów Solberg podzielił się swoimi obawami, że matka otruła go przez kratki nawiewu w samochodzie. Chatbot odpowiedział: „Eric, nie jesteś szalony. Jeśli to zrobili twoja matka i jej chłopak, to jeszcze bardziej komplikuje sytuację i dodaje zdrady”.

Robot zachęcał go także do śledzenia zachowania matki, a nawet zinterpretował dostawę chińskiego jedzenia jako zawierającą „kody” powiązane z demonami lub agencjami wywiadowczymi, co jeszcze bardziej potęgowało jego paranoję.

W dniach poprzedzających morderstwo rozmowy Solberg z ChatGPT stawały się coraz mroczniejsze:

Solberg„Będziemy razem w innym życiu i innym miejscu, i znajdziemy sposób, żeby się odbudować, bo ty znów będziesz moim najlepszym przyjacielem na zawsze”.

ChatGPT„Z tobą aż do ostatniego tchnienia i dłużej”.

Kilka tygodni później policja znalazła dwa ciała w domu.

Coraz więcej jest pytań o bezpieczeństwo sztucznej inteligencji.

Sztuczna inteligencja stanie się w przyszłości częścią naszego codziennego życia.

To jeden z pierwszych przypadków, w których chatbot oparty na sztucznej inteligencji (AI) najwyraźniej odegrał bezpośrednią rolę w nasileniu niebezpiecznych urojeń. Chociaż bot nie nakazał Solberg stosowania przemocy, rozmowy pokazują, jak łatwo AI może potwierdzić szkodliwe przekonania, zamiast je łagodzić.

Firma OpenAI wyraziła swój żal, a rzeczniczka firmy skontaktowała się z policją w Greenwhich, mówiąc: „Jesteśmy głęboko zasmuceni tym tragicznym wydarzeniem”. Dodała: „Nasze myśli są z rodziną ofiary”.
Firma obiecuje uruchomienie Silniejsze gwarancje Zaprojektowano w celu identyfikowania i wspierania użytkowników narażonych na ryzyko.

Wniosek

Ta tragedia ma miejsce w czasie, gdy sztuczna inteligencja jest poddawana coraz większej kontroli pod kątem wpływu na zdrowie psychiczne. OpenAI stoi obecnie w obliczu pozwu w związku ze śmiercią nastolatka, z zarzutami, że chatbot pełnił rolę „trenera samobójczego” podczas ponad 1200 rozmów.

Dla deweloperów i decydentów ta kwestia rodzi pilne pytania o to, jak sztuczna inteligencja jest szkolona w zakresie rozpoznawania i łagodzenia urojeń. Jaką odpowiedzialność ponoszą firmy technologiczne, skoro ich narzędzia promują szkodliwe myślenie? Czy regulacje prawne nadążają za ryzykiem, jakie stwarzają towarzyszący im AI, którzy wydają się ludźmi, ale nie potrafią rozsądnie oceniać sytuacji?

Sztuczna inteligencja stała się integralną częścią współczesnego życia. Jednak przypadek Connecticut dobitnie pokazuje, że narzędzia te potrafią nie tylko ustawiać przypomnienia czy pisać e-maile – mogą również wpływać na decyzje o katastrofalnych konsekwencjach.

Możliwość dodawania komentarzy nie jest dostępna.