Jak rozpoznać szum medialny wokół sztucznej inteligencji i uniknąć „oszustwa związanego ze sztuczną inteligencją” – według dwóch ekspertów.

W swojej nowej książce „The AI ​​Con” krytycy sztucznej inteligencji Emily Binder i Alex Hanna obnażają mit o sztucznej inteligencji generatywnej.

„Szczerze mówiąc, sztuczna inteligencja to oszustwo: towar sprzedawany komuś, żeby napełnić czyjąś kieszeń”.

To jest istota argumentacji prezentowanej przez językoznawstwo. Emilia Bender i socjolog Alex Hanna W ich nowej książce Kontrowersyjna sztuczna inteligencjaTo przydatny przewodnik dla każdego, kto w swoim życiu zetknął się z technologiami sprzedawanymi jako sztuczna inteligencja, i dla każdego, kto kwestionował ich prawdziwą użyteczność, co dotyczy większości z nas. Bender jest profesorem na Uniwersytecie Waszyngtońskim, który został uznany przez magazyn „Time” za jedną z najbardziej wpływowych osób w dziedzinie sztucznej inteligencji, a Hanna jest dyrektorką ds. badań w tej organizacji non-profit. Rozproszony Instytut Badawczy AI Były członek zespołu Google’a zajmującego się etyczną sztuczną inteligencją.

Okładka książki

Gwałtowna popularność ChatGPT pod koniec 2022 roku wywołała nową falę szumu wokół sztucznej inteligencji (AI). Hype, jak definiują go autorzy, to „szum” wokół technologii, którą jesteś przekonany, że musisz kupić lub w którą zainwestować, „aby nie przegapić przyjemności, nagrody pieniężnej, zwrotu z inwestycji ani udziału w rynku”. Ale to nie pierwszy i prawdopodobnie nie ostatni raz, kiedy naukowcy, politycy i zwykli ludzie są zainteresowani i zaniepokojeni ideą uczenia maszynowego i sztucznej inteligencji.

Binder i Hanna doszukują się korzeni uczenia maszynowego w latach 50. XX wieku, kiedy matematyk John McCarthy ukuł termin „sztuczna inteligencja”. Była to epoka, w której Stany Zjednoczone poszukiwały finansowania projektów, które pomogłyby im uzyskać przewagę militarną, ideologiczną i technologiczną nad Sowietami. „To nie wyskoczyło z głowy Zeusa ani nic w tym stylu. Ma dłuższą historię” – powiedziała Hanna w wywiadzie dla CNET. „To z pewnością nie pierwszy medialny szum wokół, cytuję, sztucznej inteligencji”.

Dzisiejszy cykl hype'u napędzany jest miliardami dolarów inwestycji kapitału wysokiego ryzyka w startupy takie jak OpenAI oraz gigantami technologicznymi, takimi jak Meta, Google i Microsoft, które inwestują miliardy w badania i rozwój w dziedzinie sztucznej inteligencji. Rezultat jest jasny: najnowsze Telefony Laptopy i aktualizacje oprogramowania są przesycone szumem wokół sztucznej inteligencji. Nic nie wskazuje na to, że badania i rozwój AI zwolnią, dzięki rosnącemu dążeniu do prześcignięcia Chin w rozwoju AI. To nie pierwszy cykl szumu wokół AI.

Oczywiście, generatywna sztuczna inteligencja w 2025 roku jest o wiele bardziej zaawansowana niż psychoterapeutyczny chatbot Eliza, który po raz pierwszy zafascynował naukowców w latach 70. XX wieku. Dzisiejsi liderzy biznesu i pracownicy są zanurzeni w medialnym szumie, z silną dozą strachu przed pominięciem czegoś i pozornie skomplikowaną, ale często nadużywaną terminologią. Słuchając liderów technologicznych i entuzjastów sztucznej inteligencji, można odnieść wrażenie, że AI przejmie twoją pracę, aby zaoszczędzić pieniądze twojej firmie. Autorzy twierdzą jednak, że ani jedno, ani drugie nie jest do końca prawdopodobne, co jest jednym z powodów, dla których ważne jest, aby rozpoznać i odciąć się od szumu medialnego.

Jak więc rozpoznać szum medialny wokół sztucznej inteligencji? Oto kilka charakterystycznych sygnałów, według Bindera i Hanny, którymi dzielimy się poniżej. Autorzy w swojej książce „The New York Times” przedstawiają szereg pytań, które warto zadać, oraz strategie identyfikacji szumu medialnego wokół sztucznej inteligencji. Dostępne teraz في الولايات المتحدة.

Zwróć uwagę na język, który humanizuje sztuczną inteligencję.

Humanizacja, czyli proces nadawania przedmiotom nieożywionym cech lub charakterystyk przypominających człowieka, stanowi istotną część szumu wokół sztucznej inteligencji. Przykładem tego typu języka jest twierdzenie firm zajmujących się sztuczną inteligencją, że ich chatboty potrafią teraz „widzieć” i „myśleć”.

Te porównania mogą być przydatne przy próbie opisania zdolności nowych programów sztucznej inteligencji do identyfikowania obiektów lub modeli sztucznej inteligencji za pomocą głębokiego rozumowania, ale mogą być również mylące. Chatboty oparte na sztucznej inteligencji nie widzą ani nie myślą, ponieważ nie mają umysłów. Nawet idea sieci neuronowych, jak zauważa Hannah w naszym wywiadzie i w książce, opiera się na ludzkim rozumieniu neuronów z lat 50. XX wieku, a nie na rzeczywistym sposobie ich działania, ale może nas zwieść, że za maszyną stoi umysł.

To przekonanie jest czymś, do czego jesteśmy predysponowani ze względu na sposób, w jaki przetwarzamy język jako ludzie. Jesteśmy uwarunkowani, by wyobrażać sobie, że za tekstem, który widzimy, stoi umysł, nawet gdy wiemy, że został on wygenerowany przez sztuczną inteligencję, powiedział Bender. „Interpretujemy język, tworząc w naszych umysłach model tego, kim był mówca” – dodał Bender.

W tych modelach wykorzystujemy naszą wiedzę o osobie mówiącej do tworzenia znaczenia, a nie tylko znaczenia wypowiadanych przez nią słów. „Dlatego, gdy napotykamy syntetyczny tekst generowany przez coś takiego jak ChatGPT, robimy to samo” – powiedział Bender. „I bardzo trudno jest nam sobie przypomnieć, że umysł nie istnieje. To tylko konstrukt, który stworzyliśmy”.

Autorzy twierdzą, że jednym z powodów, dla których firmy zajmujące się sztuczną inteligencją próbują przekonać nas, że ich produkty są podobne do ludzi, jest chęć stworzenia podstaw, które przekonają nas, że sztuczna inteligencja może zastąpić ludzi, zarówno w pracy, jak i w roli podmiotów kreatywnych. Przekonująca jest dla nas wiara w to, że sztuczna inteligencja może być magicznym rozwiązaniem złożonych problemów w kluczowych branżach, takich jak opieka zdrowotna i usługi rządowe.

Jednak najczęściej, jak twierdzą autorzy, sztuczna inteligencja nie jest wykorzystywana do naprawy czegokolwiek. Sztuczna inteligencja jest sprzedawana ze względu na wydajność, ale usługi oparte na sztucznej inteligencji ostatecznie zastępują wykwalifikowanych pracowników maszynami-czarnymi skrzynkami, które wymagają znacznej ilości opieki ze strony niskopłatnych pracowników kontraktowych lub freelancerów. Jak powiedziała Hannah w naszym wywiadzie: „Sztuczna inteligencja nie zabierze ci pracy, ale ją pogorszy”.

Uważaj na określenie „superinteligencja”.

Jeśli ludzie czegoś nie potrafią, należy zachować ostrożność wobec twierdzeń, że sztuczna inteligencja potrafi. „Superinteligencja, czyli superinteligencja, to bardzo niebezpieczny termin, ponieważ sugeruje, że jakaś technologia sprawi, że ludzie staną się zbędni” – powiedziała Hannah. „W niektórych obszarach, takich jak dopasowywanie wzorców na dużą skalę, komputery są w tym bardzo dobre. Ale jeśli istnieje pomysł, że powstanie superpoemat lub superpomysł na badania lub praktykę naukową, to jest to ewidentny szum medialny”. Bender dodał: „I nie mówimy o samolotach jako supersamolotach ani o linijkach jako superpomiarach; to wydaje się pojawiać tylko w dziedzinie sztucznej inteligencji”.

Idea „superinteligencji” (AI) często pojawia się, gdy mowa o sztucznej inteligencji ogólnej (AGI). Wielu menedżerów ma problem z dokładnym zdefiniowaniem, czym jest sztuczna inteligencja ogólna (AGI), ale w istocie jest to najbardziej zaawansowana forma sztucznej inteligencji, potencjalnie zdolna do podejmowania decyzji i wykonywania złożonych zadań. Wciąż nie ma dowodów na to, że jesteśmy blisko przyszłości z AGI, ale to popularne hasło.

Wiele z tych futurystycznych stwierdzeń liderów sztucznej inteligencji zapożycza motywy z science fiction. Zarówno optymiści, jak i pesymiści – jak Binder i Hannah opisują entuzjastów sztucznej inteligencji i osoby zaniepokojone potencjalnymi zagrożeniami – czerpią ze scenariuszy science fiction. Optymiści wyobrażają sobie przyszłe społeczeństwo oparte na sztucznej inteligencji. Pesymiści lamentują nad przyszłością, w której roboty z SI przejmą władzę nad światem i unicestwią ludzkość.

Według autorów, wspólnym mianownikiem jest głęboko zakorzenione przekonanie, że sztuczna inteligencja jest mądrzejsza od ludzi i nieunikniona. „W dyskursie często pojawia się przekonanie, że przyszłość jest ustalona i że to tylko kwestia czasu, jak szybko do niej dotrzemy” – powiedział Bender. „Pojawia się też twierdzenie, że ta konkretna technologia jest krokiem na tej drodze, a to wszystko marketing. Umiejętność patrzenia dalej jest pomocna”.

Jednym z powodów, dla których sztuczna inteligencja jest tak popularna, jest to, że funkcjonalny, autonomiczny asystent AI sprawi, że firmy z branży AI dotrzymają obietnic składanych inwestorom w postaci przełomowych innowacji. Planowanie takiej przyszłości – czy to utopijnej, czy dystopijnej – sprawia, że ​​inwestorzy patrzą w przyszłość, podczas gdy firmy przepalają miliardy dolarów i przyznają, że nie osiągną celów w zakresie emisji dwutlenku węgla. Na dobre i na złe, życie nie jest science fiction. Kiedy widzisz kogoś, kto twierdzi, że jego produkt AI jest żywcem wyjęty z filmu, to dobry znak, aby podejść do niego ze sceptycyzmem.

Dowiedz się więcej o danych wejściowych sztucznej inteligencji i sposobach oceny wyników.

Jednym z najłatwiejszych sposobów na wykrycie fałszywego marketingu AI jest sprawdzenie, czy firma ujawnia sposób jego działania. Wiele firm zajmujących się sztuczną inteligencją nie ujawnia treści wykorzystywanych do trenowania swoich modeli. Zazwyczaj jednak ujawniają, co robią z danymi, czasami chwaląc się, że ich modele przewyższają konkurencję. Od tego miejsca należy rozpocząć analizę, zazwyczaj od polityki prywatności.

Jedną z największych skarg i obaw twórców jest sposób trenowania modeli sztucznej inteligencji. Toczą się liczne procesy sądowe związane z domniemanymi naruszeniami praw autorskich, a także pojawiają się obawy dotyczące stronniczości chatbotów opartych na sztucznej inteligencji i ich potencjalnego szkodliwego wpływu. „Jeśli chcesz stworzyć system, który będzie rozwijał się, a nie powielał dawnych krzywd, musisz zacząć od uporządkowania danych” – mówi Bender. Zamiast tego firmy zajmujące się sztuczną inteligencją „wychwytują wszystko, co nie zostało jeszcze udowodnione online” – mówi Hannah.

Jeśli po raz pierwszy słyszysz o produkcie opartym na sztucznej inteligencji, zwróć szczególną uwagę na wszelkie statystyki, które podkreślają jego skuteczność. Podobnie jak wielu innych badaczy, Bender i Hannah podkreślają, że każdy wynik bez odniesienia do niego to sygnał ostrzegawczy. „Za każdym razem, gdy ktoś sprzedaje ci coś, nie dając ci dostępu do informacji o tym, jak to zostało ocenione, stoisz na niepewnym gruncie” – mówi Bender.

Może to być frustrujące i rozczarowujące, gdy firmy zajmujące się sztuczną inteligencją nie ujawniają szczegółowych informacji o tym, jak działają ich produkty i jak zostały opracowane. Jednak rozpoznanie tych luk w ich przekazie sprzedażowym może pomóc przebić się przez szum informacyjny, nawet jeśli lepiej byłoby mieć te informacje. Aby dowiedzieć się więcej, zobacz Słownik ChatGPT Nasz pełny i jak go wyłączyć Inteligencja Apple.

Możliwość dodawania komentarzy nie jest dostępna.