ChatGPT może poprosić o dowód tożsamości, jeśli nowy system przewidywania wieku podejrzewa, że ​​masz mniej niż 18 lat.

ChatGPT pracuje obecnie nad zautomatyzowanym systemem wykrywania wieku, który będzie w stanie ustalić, czy użytkownik ma mniej niż 18 lat. W niektórych przypadkach, gdy nie jest to możliwe, chatbot może poprosić użytkowników o okazanie oficjalnego dokumentu tożsamości w celu potwierdzenia tego faktu.

Logo ChatGPT na telefonie

OpenAI, firma stojąca za ChatGPT, udoskonala swoje narzędzia kontroli rodzicielskiej i jest pod coraz większą presją w związku z głośną sprawą 16-letniego Adama Renna. Czyja rodzina twierdzi, że ChatGPT przyczynił się do jego samobójstwa.

„Usługa ChatGPT jest przeznaczona dla osób w wieku od 13 lat” – wyjaśnił dyrektor generalny Sam Altman we wpisie na blogu zatytułowanym „Bezpieczeństwo, wolność i prywatność nastolatków”.

„Pracujemy nad stworzeniem systemu przewidywania wieku, który będzie szacował go na podstawie sposobu korzystania z ChatGPT” – powiedział. Napisał„W razie jakichkolwiek wątpliwości, zachowamy ostrożność i powrócimy do kwestii osób poniżej 18 roku życia. W niektórych przypadkach lub krajach możemy również poprosić o okazanie dokumentu tożsamości; wiemy, że stanowi to ustępstwo w zakresie prywatności dla dorosłych, ale uważamy, że jest to opłacalny kompromis”.

W niektórych przypadkach i krajach możemy również poprosić o okazanie dokumentu tożsamości. Wiemy, że jest to naruszenie prywatności osób dorosłych, ale wierzymy, że jest to opłacalny kompromis.

Sam Altman, dyrektor generalny OpenAI

Altman wyjaśnia, że ​​niektóre elementy odpowiedzi ChatGPT będą blokowane dla nastolatków, takie jak zalotne odpowiedzi na czacie czy dyskusje na temat samookaleczenia. Twierdzi, że firma będzie priorytetowo traktować bezpieczeństwo nastolatków, a nie ich prywatność i wolność, tłumacząc, że nieletni potrzebują „znacznej ochrony”.

Na koniec dodaje, że jeśli nastolatek wyrazi myśli samobójcze w rozmowie z chatbotem, ten spróbuje skontaktować się z jego rodzicami i ich ostrzec. Jeśli to się nie uda, ChatGPT spróbuje skontaktować się z władzami.

„Zdajemy sobie sprawę, że te zasady są sprzeczne i nie wszyscy zgodzą się z naszym rozwiązaniem tego konfliktu” – napisał Altman. „To trudne decyzje, ale po rozmowach z ekspertami uważamy, że to jest najlepsze rozwiązanie i chcemy być transparentni w kwestii naszych intencji”.

Dr Brian Ramos, neurobiolog i badacz długowieczności w Po prostu nootropikiTom's Guide uważa, że ​​OpenAI podejmuje właściwą decyzję.

„Jako neurobiolog specjalizujący się w długowieczności i holistycznym samopoczuciu, z zadowoleniem przyjmuję takie zabezpieczenia, jak systemy przewidywania wieku i kontrola rodzicielska” – powiedział mi w wiadomości e-mail.

Mózgi nastolatków wciąż się rozwijają, co czyni je bardziej podatnymi zarówno na korzyści, jak i ryzyko związane ze sztuczną inteligencją. ChatGPT może być przydatnym towarzyszem lekkich, niezobowiązujących rozmów terapeutycznych, pomagającym w redukcji stresu, medytacji i budowaniu zdrowych nawyków.

Jednak w przypadku głębokich problemów psychologicznych, zwłaszcza związanych z samookaleczeniem lub traumą, zawsze należy skonsultować się ze specjalistami. Technologia może wspierać, ale nigdy nie powinna zastępować autentycznej opieki terapeutycznej.

Kontrola rodzicielska ChatGPT – co dalej?

Nastolatka patrzy w telefon na kanapie, podczas gdy jej matka stoi za nią

Nowa funkcja kontroli rodzicielskiej ChatGPT umożliwi rodzicom łączenie swoich kont z kontami ich dzieci.

Dzięki temu mogą oni wprowadzać ustawienia w imieniu swoich dzieci, takie jak ustawienie „godzin blokowania”, w których nie mogą korzystać z platformy, czy wyłączenie historii czatów. Dzięki połączeniu kont, ChatGPT będzie mógł również powiadamiać rodziców o wykryciu oznak niepokojącego lub potencjalnie szkodliwego zachowania w kontaktach z dzieckiem.

Możliwość dodawania komentarzy nie jest dostępna.