Badanie: Nadmierne korzystanie z ChatGPT może prowadzić do przywiązania emocjonalnego

OpenAI wydaje się co tydzień ogłaszać nowe modele sztucznej inteligencji (AI), które mają udoskonalić chatbota ChatGPT dla 400 milionów użytkowników. Jednak łatwość, z jaką zaprojektowano to narzędzie AI, sugeruje, że można przesadzić.

Firma zajmująca się sztuczną inteligencją bada obecnie potencjalne reperkusje psychologiczne, jakie ChatGPT może mieć na swoich użytkowników. Opublikowała OpenAI ا Dwuczęściowe badanie Badanie przeprowadzone we współpracy z MIT Media Lab ujawniło związek między wzmożonym korzystaniem z chatbota ChatGPT a wzrostem poczucia osamotnienia wśród użytkowników.

Każda organizacja przeprowadziła niezależne badanie, a wyniki połączono w jednolitą konkluzję. Badanie OpenAI objęło „ponad 40 milionów interakcji z ChatGPT” w ciągu jednego miesiąca, bez ingerencji człowieka, aby chronić prywatność użytkowników. W międzyczasie MIT monitorował prawie 1000 uczestników za pomocą ChatGPT Ponad 28 dni. Badania te nie zostały jeszcze poddane recenzji naukowej.

Badanie przeprowadzone przez MIT skupiło się na różnych funkcjach użytkowych, które mogą wpływać na doświadczenia emocjonalne użytkowników podczas interakcji z ChatGPT, w tym na tekst i głos. Wyniki wykazały, że obie metody mogły potencjalnie wywoływać poczucie osamotnienia lub wpływać na interakcje społeczne użytkowników w okresie badania. Kluczowymi punktami porównania były również intonacja głosu i wybór tematu.

Użycie neutralnego tonu w trybie głosowym ChatGPT rzadziej prowadziło do negatywnych skutków emocjonalnych u uczestników. Jednocześnie badanie wykazało korelację między uczestnikami prowadzącymi osobiste rozmowy z ChatGPT a zwiększonym prawdopodobieństwem samotności; jednak efekty te były krótkotrwałe. Nawet osoby korzystające z czatu tekstowego do dyskusji na ogólne tematy doświadczyły zwiększonej zależności emocjonalnej od chatbota.

Badanie wykazało również, że osoby, które uznały ChatGPT za przyjaciela, a także te, które już wcześniej wykazywały silną tendencję do przywiązywania się emocjonalnie do związków, częściej czuły się samotne i uzależnione emocjonalnie od chatbota podczas uczestnictwa w badaniu.

Badanie OpenAI dostarczyło więcej kontekstu, ponieważ jego wyniki generalnie wskazywały, że interakcje z ChatGPT w celach emocjonalnych były rzadkie. Ponadto badanie wykazało, że nawet wśród intensywnych użytkowników, którzy korzystali z zaawansowanej funkcji trybu głosowego chatbota i częściej deklarowali, że uważają ChatGPT za przyjaciela, ta grupa uczestników doświadczała niższych reakcji emocjonalnych podczas interakcji z chatbotem.

Firma OpenAI stwierdziła, że ​​celem prowadzonych badań jest zrozumienie wyzwań, jakie mogą pojawić się w związku z jej technologią, a także możliwość zidentyfikowania prognoz i przykładów możliwych zastosowań jej modeli.

Chociaż OpenAI zauważa, że ​​jego badanie oparte na interakcji naśladuje zachowania prawdziwych ludzi, wielu prawdziwych ludzi przyznało na forach publicznych, Podobnie jak Reddit, korzystając z ChatGPT zamiast udać się do terapeuty ze swoimi uczuciami.

Możliwość dodawania komentarzy nie jest dostępna.