Już wkrótce rozpocznij trenowanie modelu Claude AI na swoich danych: Oto jak zrezygnować przed upływem terminu

Co musisz zrobić, żeby powiedzieć „nie”

Anthropic, twórca sztucznej inteligencji, przeprowadza... Claude... wprowadza fundamentalną zmianę w sposobie przetwarzania danych użytkowników. Od dziś użytkownicy Claude będą proszeni o wybór między zezwoleniem firmie Anthropic na wykorzystywanie ich rozmów do trenowania przyszłych modeli sztucznej inteligencji a rezygnacją z tej opcji i zachowaniem prywatności swoich danych. Jeśli nie podejmiesz decyzji do 28 września 2025 r., utracisz całkowicie dostęp do Claude.

Claude na laptopie

Wcześniej Anthropic stawiał prywatność na pierwszym miejscu, co oznaczało automatyczne usuwanie czatów i tokenów po 30 dniach, chyba że jest to wymagane z przyczyn prawnych. Jednak od dziś, o ile nie zrezygnujesz z tej opcji, Twoje dane będą przechowywane przez maksymalnie pięć lat i wykorzystywane w sesjach szkoleniowych, które pomogą Claude'owi stać się mądrzejszym.

Nowa polityka dotyczy wszystkich planów, w tym Free, Pro i Max, a także Cloud Code w ramach tych poziomów. Użytkownicy biznesowi, rządowi, edukacyjni i użytkownicy API nie są objęci tą polityką.

Mechanizm działania

Po rejestracji nowi użytkownicy będą mieli możliwość wyrażenia zgody na wykorzystanie swoich danych w celu poprawy wydajności modelu Claude AI. Obecni użytkownicy zobaczą okno podręczne zatytułowane „Aktualizacje Warunków i Polityki dla Konsumentów”. Kliknięcie dużego niebieskiego przycisku „Zgadzam się” automatycznie zaakceptuje tę funkcję, a mniejszy przełącznik pozwoli użytkownikom ją wyłączyć.

Jeśli zignorujesz to okno, Claude przestanie działać po 28 września. Należy pamiętać, że ta zmiana dotyczy tylko przyszłych konwersacji i kodu. Wszystko, co napisałeś w przeszłości, zostanie wykorzystane dopiero po ponownym otwarciu tych konwersacji. A jeśli usuniesz konwersację, nie zostanie ona wykorzystana do szkolenia.

Możesz później zmienić swoją decyzję w ustawieniach prywatności. Jednak po wykorzystaniu danych do szkolenia nie będzie można ich odzyskać. Ważne jest, aby zrozumieć ten mechanizm, aby chronić swoją prywatność i dane podczas korzystania z chmury.

Dlaczego Anthropic wprowadza tę zmianę?

Dario Amodei, dyrektor generalny Anthropic

Firma Anthropic twierdzi, że dane użytkowników są niezbędne do poprawy wydajności modelu języka Claude w wielu obszarach, od „kodowania wibracji” i tradycyjnego programowania, po możliwości wnioskowania i utrzymanie standardów bezpieczeństwa. Firma Anthropic podkreśla, że ​​nie sprzedaje tych danych stronom trzecim, a zamiast tego używa automatycznych filtrów do usuwania poufnych informacji przed wykorzystaniem ich do trenowania swoich modeli.

Zmiana ta oznacza jednak zmianę równowagi w kwestii prywatności, przechodząc od domyślnej prywatności do domyślnego udostępniania danych, chyba że użytkownik wyraźnie wyrazi sprzeciw. Innymi słowy, Twoje dane będą domyślnie gromadzone i wykorzystywane do ulepszania aplikacji Claude, a Ty musisz podjąć działania, aby temu zapobiec, jeśli nie chcesz udostępniać swoich danych. Celem tej zmiany jest zwiększenie możliwości sztucznej inteligencji aplikacji Claude poprzez wykorzystanie danych użytkownika, a jednocześnie podkreślenie zaangażowania firmy Anthropic w ochronę prywatności użytkowników poprzez wrażliwe mechanizmy filtrowania danych.

Jaki jest Twój wybór?

Decyzja firmy Anthropic o przyspieszeniu procesu ulepszania rzeczywistych danych, na których trenuje Claude, oznacza, że ​​im lepiej model będzie sobie radził z odpowiadaniem na złożone pytania, pisaniem kodu i unikaniem błędów, tym bardziej rozwinie sztuczną inteligencję.

Postęp ten odbywa się jednak kosztem użytkowników, którzy mogą teraz stać się częścią zestawu szkoleniowego, a ich dane będą przechowywane przez lata, a nie tygodnie.

Dla przeciętnych użytkowników może się to wydawać nieistotne. Jednak dla użytkowników dbających o prywatność lub osób omawiających projekty służbowe, sprawy osobiste lub poufne informacje w chmurze, ta aktualizacja może być sygnałem ostrzegawczym.

Ponieważ ustawienie domyślne jest włączone, Twoim obowiązkiem jest wyłączenie tej opcji, jeśli chcesz zachować prywatność swoich danych.

Możliwość dodawania komentarzy nie jest dostępna.