Już wkrótce rozpocznij trenowanie modelu Claude AI na swoich danych: Oto jak zrezygnować przed upływem terminu
Co musisz zrobić, żeby powiedzieć „nie”
Anthropic, twórca sztucznej inteligencji, przeprowadza... Claude... wprowadza fundamentalną zmianę w sposobie przetwarzania danych użytkowników. Od dziś użytkownicy Claude będą proszeni o wybór między zezwoleniem firmie Anthropic na wykorzystywanie ich rozmów do trenowania przyszłych modeli sztucznej inteligencji a rezygnacją z tej opcji i zachowaniem prywatności swoich danych. Jeśli nie podejmiesz decyzji do 28 września 2025 r., utracisz całkowicie dostęp do Claude.

Wcześniej Anthropic stawiał prywatność na pierwszym miejscu, co oznaczało automatyczne usuwanie czatów i tokenów po 30 dniach, chyba że jest to wymagane z przyczyn prawnych. Jednak od dziś, o ile nie zrezygnujesz z tej opcji, Twoje dane będą przechowywane przez maksymalnie pięć lat i wykorzystywane w sesjach szkoleniowych, które pomogą Claude'owi stać się mądrzejszym.
Nowa polityka dotyczy wszystkich planów, w tym Free, Pro i Max, a także Cloud Code w ramach tych poziomów. Użytkownicy biznesowi, rządowi, edukacyjni i użytkownicy API nie są objęci tą polityką.
Mechanizm działania
Po rejestracji nowi użytkownicy będą mieli możliwość wyrażenia zgody na wykorzystanie swoich danych w celu poprawy wydajności modelu Claude AI. Obecni użytkownicy zobaczą okno podręczne zatytułowane „Aktualizacje Warunków i Polityki dla Konsumentów”. Kliknięcie dużego niebieskiego przycisku „Zgadzam się” automatycznie zaakceptuje tę funkcję, a mniejszy przełącznik pozwoli użytkownikom ją wyłączyć.
Jeśli zignorujesz to okno, Claude przestanie działać po 28 września. Należy pamiętać, że ta zmiana dotyczy tylko przyszłych konwersacji i kodu. Wszystko, co napisałeś w przeszłości, zostanie wykorzystane dopiero po ponownym otwarciu tych konwersacji. A jeśli usuniesz konwersację, nie zostanie ona wykorzystana do szkolenia.
Możesz później zmienić swoją decyzję w ustawieniach prywatności. Jednak po wykorzystaniu danych do szkolenia nie będzie można ich odzyskać. Ważne jest, aby zrozumieć ten mechanizm, aby chronić swoją prywatność i dane podczas korzystania z chmury.
Dlaczego Anthropic wprowadza tę zmianę?

Firma Anthropic twierdzi, że dane użytkowników są niezbędne do poprawy wydajności modelu języka Claude w wielu obszarach, od „kodowania wibracji” i tradycyjnego programowania, po możliwości wnioskowania i utrzymanie standardów bezpieczeństwa. Firma Anthropic podkreśla, że nie sprzedaje tych danych stronom trzecim, a zamiast tego używa automatycznych filtrów do usuwania poufnych informacji przed wykorzystaniem ich do trenowania swoich modeli.
Zmiana ta oznacza jednak zmianę równowagi w kwestii prywatności, przechodząc od domyślnej prywatności do domyślnego udostępniania danych, chyba że użytkownik wyraźnie wyrazi sprzeciw. Innymi słowy, Twoje dane będą domyślnie gromadzone i wykorzystywane do ulepszania aplikacji Claude, a Ty musisz podjąć działania, aby temu zapobiec, jeśli nie chcesz udostępniać swoich danych. Celem tej zmiany jest zwiększenie możliwości sztucznej inteligencji aplikacji Claude poprzez wykorzystanie danych użytkownika, a jednocześnie podkreślenie zaangażowania firmy Anthropic w ochronę prywatności użytkowników poprzez wrażliwe mechanizmy filtrowania danych.
Jaki jest Twój wybór?
Decyzja firmy Anthropic o przyspieszeniu procesu ulepszania rzeczywistych danych, na których trenuje Claude, oznacza, że im lepiej model będzie sobie radził z odpowiadaniem na złożone pytania, pisaniem kodu i unikaniem błędów, tym bardziej rozwinie sztuczną inteligencję.
Postęp ten odbywa się jednak kosztem użytkowników, którzy mogą teraz stać się częścią zestawu szkoleniowego, a ich dane będą przechowywane przez lata, a nie tygodnie.
Dla przeciętnych użytkowników może się to wydawać nieistotne. Jednak dla użytkowników dbających o prywatność lub osób omawiających projekty służbowe, sprawy osobiste lub poufne informacje w chmurze, ta aktualizacja może być sygnałem ostrzegawczym.
Ponieważ ustawienie domyślne jest włączone, Twoim obowiązkiem jest wyłączenie tej opcji, jeśli chcesz zachować prywatność swoich danych.
Możliwość dodawania komentarzy nie jest dostępna.