ChatGPT może poprosić o dowód tożsamości, jeśli nowy system przewidywania wieku podejrzewa, że masz mniej niż 18 lat.
ChatGPT pracuje obecnie nad zautomatyzowanym systemem wykrywania wieku, który będzie w stanie ustalić, czy użytkownik ma mniej niż 18 lat. W niektórych przypadkach, gdy nie jest to możliwe, chatbot może poprosić użytkowników o okazanie oficjalnego dokumentu tożsamości w celu potwierdzenia tego faktu.

OpenAI, firma stojąca za ChatGPT, udoskonala swoje narzędzia kontroli rodzicielskiej i jest pod coraz większą presją w związku z głośną sprawą 16-letniego Adama Renna. Czyja rodzina twierdzi, że ChatGPT przyczynił się do jego samobójstwa.
„Usługa ChatGPT jest przeznaczona dla osób w wieku od 13 lat” – wyjaśnił dyrektor generalny Sam Altman we wpisie na blogu zatytułowanym „Bezpieczeństwo, wolność i prywatność nastolatków”.
„Pracujemy nad stworzeniem systemu przewidywania wieku, który będzie szacował go na podstawie sposobu korzystania z ChatGPT” – powiedział. Napisał„W razie jakichkolwiek wątpliwości, zachowamy ostrożność i powrócimy do kwestii osób poniżej 18 roku życia. W niektórych przypadkach lub krajach możemy również poprosić o okazanie dokumentu tożsamości; wiemy, że stanowi to ustępstwo w zakresie prywatności dla dorosłych, ale uważamy, że jest to opłacalny kompromis”.
W niektórych przypadkach i krajach możemy również poprosić o okazanie dokumentu tożsamości. Wiemy, że jest to naruszenie prywatności osób dorosłych, ale wierzymy, że jest to opłacalny kompromis.
Altman wyjaśnia, że niektóre elementy odpowiedzi ChatGPT będą blokowane dla nastolatków, takie jak zalotne odpowiedzi na czacie czy dyskusje na temat samookaleczenia. Twierdzi, że firma będzie priorytetowo traktować bezpieczeństwo nastolatków, a nie ich prywatność i wolność, tłumacząc, że nieletni potrzebują „znacznej ochrony”.
Na koniec dodaje, że jeśli nastolatek wyrazi myśli samobójcze w rozmowie z chatbotem, ten spróbuje skontaktować się z jego rodzicami i ich ostrzec. Jeśli to się nie uda, ChatGPT spróbuje skontaktować się z władzami.
„Zdajemy sobie sprawę, że te zasady są sprzeczne i nie wszyscy zgodzą się z naszym rozwiązaniem tego konfliktu” – napisał Altman. „To trudne decyzje, ale po rozmowach z ekspertami uważamy, że to jest najlepsze rozwiązanie i chcemy być transparentni w kwestii naszych intencji”.
Dr Brian Ramos, neurobiolog i badacz długowieczności w Po prostu nootropikiTom's Guide uważa, że OpenAI podejmuje właściwą decyzję.
„Jako neurobiolog specjalizujący się w długowieczności i holistycznym samopoczuciu, z zadowoleniem przyjmuję takie zabezpieczenia, jak systemy przewidywania wieku i kontrola rodzicielska” – powiedział mi w wiadomości e-mail.
Mózgi nastolatków wciąż się rozwijają, co czyni je bardziej podatnymi zarówno na korzyści, jak i ryzyko związane ze sztuczną inteligencją. ChatGPT może być przydatnym towarzyszem lekkich, niezobowiązujących rozmów terapeutycznych, pomagającym w redukcji stresu, medytacji i budowaniu zdrowych nawyków.
Jednak w przypadku głębokich problemów psychologicznych, zwłaszcza związanych z samookaleczeniem lub traumą, zawsze należy skonsultować się ze specjalistami. Technologia może wspierać, ale nigdy nie powinna zastępować autentycznej opieki terapeutycznej.
Kontrola rodzicielska ChatGPT – co dalej?

Nowa funkcja kontroli rodzicielskiej ChatGPT umożliwi rodzicom łączenie swoich kont z kontami ich dzieci.
Dzięki temu mogą oni wprowadzać ustawienia w imieniu swoich dzieci, takie jak ustawienie „godzin blokowania”, w których nie mogą korzystać z platformy, czy wyłączenie historii czatów. Dzięki połączeniu kont, ChatGPT będzie mógł również powiadamiać rodziców o wykryciu oznak niepokojącego lub potencjalnie szkodliwego zachowania w kontaktach z dzieckiem.
Możliwość dodawania komentarzy nie jest dostępna.