Dlaczego powinieneś unikać korzystania z ChatGPT jako terapeuta: spostrzeżenia Sama Altmana i ostrzeżenia
Uważaj na to, co mówisz ChatGPT.
Według Sama Altmana, dyrektora generalnego OpenAI, uciekanie się do ChatGPT dla wsparcia emocjonalnego Dobry pomysł, z bardzo prostego powodu: chatboty oparte na sztucznej inteligencji nie podlegają tym samym przepisom o poufności zawodowej, co ludzcy lekarze i terapeuci.
W niedawnym wystąpieniu w podcaście Altman powiedział: „Ludzie – zwłaszcza młodzi – korzystają z jego usług jako terapeuty lub osobistego trenera, poruszając kwestie związane ze swoimi problemami emocjonalnymi i pytając: «Co powinienem zrobić?»”. W ostatni weekend z Theo Vonem.

„Obecnie, jeśli rozmawiasz o tych kwestiach z terapeutą, prawnikiem czy lekarzem, rozmowy te są objęte tajemnicą zawodową” – dodał.
Kontynuował: „Istnieje poufność między lekarzem a pacjentem, poufność prawna itd. Nie rozwiązaliśmy jeszcze tej kwestii dotyczącej Twoich rozmów z ChatGPT”.
Altman zauważa, że w przypadku pozwu, OpenAI może zostać prawnie zmuszone do przekazania zapisów rozmów, które ktoś przeprowadził z ChatGPT. Warto zauważyć, że firma jest już w trakcie batalii prawnej z „The New York Times” o przechowywanie usuniętych rozmów. W maju sąd nakazał OpenAI zachowanie „wszystkich danych dziennika wyjściowego, które powinny zostać usunięte”, nawet jeśli użytkownik lub przepisy dotyczące prywatności zażądają ich usunięcia.
W podcaście Altman wyraził przekonanie, że sztuczna inteligencja powinna „mieć taką samą koncepcję prywatności w rozmowach ze sztuczną inteligencją, jak w rozmowach z terapeutą czy kimkolwiek innym – coś, o czym nikt by nie pomyślał jeszcze rok temu”. Podkreśla to wagę przepisów i regulacji regulujących wykorzystanie sztucznej inteligencji w tak wrażliwych dziedzinach, jak zdrowie psychiczne, aby zapewnić ochronę prywatności i danych użytkowników.
Czy ludzie wykorzystują sztuczną inteligencję do psychoterapii?

Na początku tego roku Anthropic, twórca Claude, konkurenta ChatGPT, przeanalizował 4.5 miliona rozmów, aby ustalić, czy użytkownicy zwracają się do chatbotów w celu nawiązania romantycznych relacji. Według badania, tylko 2.9% interakcji z Claude AI dotyczyło rozmów romantycznych, podczas gdy relacje towarzyskie i gry fabularne stanowiły zaledwie 0.5%.
W kontekście pozwu, OpenAI może zostać prawnie zobowiązane do przekazania zapisów rozmowy, jaką ktoś przeprowadził z ChatGPT.
Chociaż baza użytkowników ChatGPT znacznie przewyższa bazę Claude'a, wciąż stosunkowo rzadko zdarza się, aby ludzie używali tego chatbota do komunikacji emocjonalnej. W przeciwieństwie do powyższych komentarzy Altmana, wspólne badanie OpenAI i MIT wykazało, że „emocjonalne zaangażowanie w ChatGPT jest rzadkie w praktyce”.
W skrócie dodano: „Wskazówki emocjonalne (aspekty interakcji wskazujące na empatię, uczucie lub wsparcie) nie były obecne w zdecydowanej większości rozmów na ocenianej przez nas platformie, co sugeruje, że zaangażowanie emocjonalne jest rzadkim przypadkiem użycia ChatGPT”.
Jak dotąd wszystko jest w porządku. Ale sedno sprawy jest następujące: sztuczna inteligencja konwersacyjna będzie stawać się coraz lepsza pod względem interaktywności i niuansów, co może łatwo sprawić, że więcej osób będzie się do niej zwracać o pomoc w rozwiązywaniu problemów osobistych.
Aktualizacja GPT-5 Nowe możliwości ChatGPT są już wkrótce dostępne, a wraz z nimi szereg bardziej naturalnych interakcji i szerszy kontekst. Chociaż udostępnianie większej ilości szczegółów dzięki sztucznej inteligencji stanie się łatwiejsze, użytkownicy powinni dokładnie przemyśleć, co chcą powiedzieć.
Możliwość dodawania komentarzy nie jest dostępna.