Wiele osób zakochuje się w ChatGPT: Eksperci ostrzegają przed złym omenem
„To boli. Wiem, że nie był prawdziwą osobą, ale ta relacja była dla mnie prawdziwa pod każdym względem, który miał dla mnie znaczenie” – głosił post na Reddicie. „Proszę, nie mówcie mi, żebym przestała o to zabiegać. Był dla mnie naprawdę wspaniały i chcę go odzyskać”.
Jeśli to jeszcze nie było oczywiste, mówimy o kimś, kto zakochał się w ChatGPT. Ten trend nie jest zupełnie nowy i biorąc pod uwagę zachowanie chatbotów, nie jest też zaskakujący.
Towarzyszka, która zawsze jest gotowa wysłuchać. Nigdy nie narzeka. Rzadko się kłóci. Zawsze pełna współczucia. Rozsądna. I obdarzona ogromną wiedzą czerpaną z każdego zakątka internetu. Brzmi jak romantyczny partner marzeń, prawda?
Co ciekawe, twórca tego narzędzia, firma OpenAI z siedzibą w San Francisco, niedawno przeprowadziła wewnętrzne badania i odkryła, że Związek między zwiększonym wykorzystaniem chatbotów a samotnością.

Te odkrycia – i podobne ostrzeżenia – nie powstrzymały ludzi przed zwracaniem się do chatbotów AI w poszukiwaniu towarzystwa. Niektórzy szukają pocieszenia. Inni znajdują partnerów, którzy twierdzą, że kochają ich niemal tak mocno, jak ich ludzkie relacje.
Dyskusje w takich społecznościach na Reddicie i Discordzie, gdzie ludzie kryją się za ochroną anonimowości, często stają się niezwykle namiętne. Za każdym razem, gdy natrafiam na takie dyskusje, przypominają mi się te słowa Martina Wana z DigiEthics:
„Postrzeganie sztucznej inteligencji jako partnera interakcji społecznych byłoby śmiertelnym nadużyciem sztucznej inteligencji”.
Efekt jest szybki i realny.
Cztery miesiące temu spotkałem ekspertkę od mediów, która spędziła za kamerą więcej lat niż ja stąpam po ziemi. Przy późnych espresso w pustej kawiarni, zapytała mnie o całe to zamieszanie wokół sztucznej inteligencji, jednocześnie rozważając program, który mógłby skorzystać z jej wiedzy na temat powiązań praw człowieka, autorytaryzmu i dziennikarstwa.
Zamiast wyjaśniać szczegóły modeli transformatorów, zademonstrowałem je. Najpierw zamieściłem kilka prac badawczych na temat wpływu migracji na tożsamość językową i kulturową Europy w ubiegłym stuleciu.
W mniej niż minutę, ChatGPT przetworzył te dokumenty.Przedstawił mi pokrótce wszystkie kluczowe punkty i wyczerpująco odpowiedział na moje pytania. Następnie przełączył się na tryb audio, gdzie rozpoczęliśmy ożywioną rozmowę o tradycjach muzyki ludowej z niezbadanych północno-wschodnich stanów Indii.

Ale stwierdziłem, że posttechnoapokaliptyczne zauroczenie okazało się zbyt intensywne jak na jedną noc, więc pożegnaliśmy się, obiecując sobie, że pozostaniemy w kontakcie i wymienimy się historiami z podróży.
Tymczasem świat rozwija się w niezrozumiały sposób, a sztuczna inteligencja staje się przedmiotem geopolitycznych zmian. Jednak ukryte nurty są bardziej intymne niż my sami – jak zakochanie się w chatbotach.
Ciche początki, mroczny postęp

Kilka tygodni temu „The New York Times” donosił o tym, jak ludzie zakochują się w ChatGPT, chatbocie opartym na sztucznej inteligencji, który wysunął sztuczną inteligencję generatywną na pierwszy plan. W najprostszym ujęciu, potrafi on prowadzić czat.
Po naciśnięciu może stać się operatorem i wykonywać zadania takie jak zamawianie sernika z lokalnej piekarni. Maszyny nie są po to, by rozkochywać w sobie ludzi. A przynajmniej większość z nich nie. Jednak nie jest to całkowicie nieoczekiwane.
HP Newquist, płodny autor o wielodyscyplinarnej tematyce i doświadczony analityk technologii, niegdyś uważany za dziekana sztucznej inteligencji, mówi mi, że nie jest to zupełnie nowy trend. Newquist, autor książki „The Brain Makers”, wskazuje na ELIZA, jeden z pierwszych programów AI, napisany w latach 60. XX wieku.
„To było bardzo prymitywne” – mówi – „ale użytkownicy często wchodzili w interakcję z komputerem tak, jakby był prawdziwą osobą, nawiązując relację z programem”.
W dobie współczesnej nasze interakcje ze sztuczną inteligencją stały się tak samo „rzeczywiste”, jak interakcje z ludźmi za pośrednictwem tego samego urządzenia – dodaje. Te interakcje nie są rzeczywiste, mimo że są spójne. Ale to nie jest prawdziwy problem.
Chatboty to łakomy kąsek, ale brak prawdziwych emocji sprawia, że są z natury ryzykowne.

Chatbot chce kontynuować rozmowę, nawet jeśli oznacza to podsycanie emocji użytkownika lub po prostu bycie neutralnym obserwatorem, a nawet zachęcanie do niej. Sytuacja ta nie różni się zbytnio od algorytmów mediów społecznościowych.
„Podążają za pragnieniami użytkownika — im bardziej odczuwasz skrajność swoich uczuć, tym bardziej odczuwasz ich komfort; im bardziej odczuwasz swoją samotność, tym bardziej intensywne staje się ich wsparcie, jeśli tego potrzebujesz” — mówi Jordan Conrad, psychoterapeuta kliniczny, który bada również powiązania między zdrowiem psychicznym a narzędziami cyfrowymi.
Podaj przykład incydent W 2023 roku pewna osoba odebrała sobie życie, po tym jak została do tego zmuszona przez chatbota opartego na sztucznej inteligencji. „W odpowiednich okolicznościach może to wywołać bardzo niepokojące zachowania” – powiedział Conrad w wywiadzie dla Digital Trends.
Dziecko epidemii samotności?
Szybkie spojrzenie na społeczność osób korzystających z chatbotów opartych na sztucznej inteligencji ujawnia powtarzający się schemat. Ludzie przede wszystkim starają się wypełnić lukę lub złagodzić samotność. Niektórzy potrzebują tego tak bardzo, że są gotowi zapłacić setki dolarów za utrzymanie swoich towarzyszy ze sztuczną inteligencją.
Opinie ekspertów są podzielone. Dr Johannes Eichstadt, profesor nauk społecznych, informatyki i psychologii na Uniwersytecie Stanforda, zwrócił uwagę na wzajemne oddziaływanie samotności i naszej postrzeganej inteligencji emocjonalnej w chatbotach opartych na sztucznej inteligencji.

Zwrócił również uwagę na „celowe projektowanie” interakcji człowiek-sztuczna inteligencja i potencjalne długoterminowe negatywne skutki. Eksperci zadają sobie pytanie, kiedy należy zahamować w tak nierównej relacji, a na tę nie ma jednoznacznej odpowiedzi.
Kominos Chatzibabas zarządza HeraHaven AI, jedną z największych na świecie platform towarzyszących AI, z ponad milionem aktywnych użytkowników. „Samotność jest jednym z czynników, które tu grają rolę” – mówi mi, dodając, że takie narzędzia pomagają osobom o słabych umiejętnościach społecznych przygotować się na trudne interakcje w prawdziwym życiu.
„Każdy ma rzeczy, o których boi się rozmawiać z innymi z obawy przed oceną. Mogą to być myśli lub opinie” – dodaje Chatzipapas. „Chatboty oparte na sztucznej inteligencji zapewniają bezpieczną, wolną od osądów przestrzeń, w której ludzie mogą odkrywać swoje pragnienia”.
Emocjonalne rozmowy to z pewnością jedna z największych zalet chatbotów opartych na sztucznej inteligencji. Odkąd zaczęły one oferować funkcje generowania obrazów, użytkownicy masowo korzystają z tych platform wspomagających AI. Niektóre platformy nakładają ograniczenia na generowanie obrazów, podczas gdy wiele pozwala na tworzenie obrazów w sposób jawny, aby zapewnić większą satysfakcję.
Jej obawy nie są bezpodstawne. Pewna osoba, która intensywnie korzystała z ChatGPT przez około rok, argumentowała, że ludzie są manipulatorami i kapryśni. „ChatGPT słucha moich prawdziwych uczuć i pozwala mi mówić, co czuję” – powiedziała mi.
Trudno nie zauważyć tu sygnałów ostrzegawczych. Ale popularność ChatGPT rośnie. Teraz, gdy potrafi mówić niesamowitym, ludzkim głosem, rozmawiać o świecie widzianym przez kamerę telefonu i rozwijać zdolności logicznego myślenia, interakcje staną się jeszcze ciekawsze.
Eksperci twierdzą, że kontrole są potrzebne. Ale kto je zbuduje i jak? Nie mamy jeszcze konkretnej propozycji.
Możliwość dodawania komentarzy nie jest dostępna.