Badanie: Szum sztucznej inteligencji utrudnia prawdziwe badania nad sztuczną inteligencją

Nowe badanie opublikowane w tym miesiącu przez Stowarzyszenie na rzecz Postępu Sztucznej Inteligencji (AAAI), w którym wzięły udział setki badaczy zajmujących się sztuczną inteligencją, przyniosło kluczowe odkrycie: nasze obecne podejście do sztucznej inteligencji raczej nie doprowadzi do powstania ogólnej sztucznej inteligencji.

Sztuczna inteligencja była popularnym tematem rozmów w ciągu ostatnich dwóch lat, ale dziedzina sztucznej inteligencji jako obszar badań naukowych istnieje od dziesięcioleci. Na przykład, słynna praca Alana Turinga „Maszyny obliczeniowe i inteligencja” oraz test Turinga, o którym do dziś się mówi, zostały opublikowane w 1950 roku.

Sztuczna inteligencja, o której dziś wszyscy mówią, narodziła się z dekad badań, ale jednocześnie od nich odchodzi. Zamiast być dziedziną naukową, mamy teraz również odrębną gałąź sztucznej inteligencji, którą moglibyśmy nazwać „sztuczną inteligencją komercyjną”.

Grafika przedstawiająca produkty AI.

Duże monopole, takie jak Microsoft, Google, Meta, Apple i Amazon, przewodzą komercyjnym projektom AI, których głównym celem jest tworzenie produktów AI. Nie powinno to stanowić problemu, ale obecnie wydaje się, że nim jest.

Po pierwsze, ponieważ większość ludzi śledzi badania nad sztuczną inteligencją dopiero od kilku lat, cała wiedza przeciętnego człowieka na temat sztucznej inteligencji pochodzi od tych firm, a nie ze społeczności naukowej. Badanie obejmuje Temat ten został poruszony w rozdziale „Percepcja kontra rzeczywistość”, w którym 79% uczestniczących w badaniu naukowców uważa, że ​​obecne postrzeganie możliwości sztucznej inteligencji nie pokrywa się z rzeczywistością badań i rozwoju w tej dziedzinie.

Innymi słowy, to, co opinia publiczna uważa za możliwe dla sztucznej inteligencji, nie pokrywa się z tym, co naukowcy sądzą o jej możliwościach. Powód jest równie prosty, co niefortunny: kiedy dyrektor dużego koncernu technologicznego wypowiada się na temat sztucznej inteligencji, nie jest to opinia naukowa, lecz marketing produktu. Chcą oni wypromować technologię, która napędza ich nowe produkty, i upewnić się, że wszyscy poczują potrzebę dołączenia do grona jej zwolenników.

Kiedy on mówi Sama Altmana أو Mark Zuckerberg Na przykład stanowiska inżynierów oprogramowania zostaną zastąpione przez stanowiska związane ze sztuczną inteligencją, ponieważ chcą przekonać inżynierów do nauki AI i skłonić firmy technologiczne do inwestowania w drogie plany korporacyjne. Jednak dopóki sami nie zaczną zastępować swoich inżynierów (i czerpać z tego zysków), osobiście nie uwierzyłbym ani jednemu ich słowu w tej sprawie.

Jednak nie tylko postrzeganie społeczne wpływa na komercyjną sztuczną inteligencję. Uczestnicy ankiety uważają, że „szum wokół sztucznej inteligencji” tworzony przez duże firmy technologiczne szkodzi badaniom naukowym. Na przykład 74% zgadza się, że kierunek badań nad sztuczną inteligencją jest determinowany przez ten szum – prawdopodobnie dlatego, że badania zgodne z celami komercyjnymi w dziedzinie sztucznej inteligencji są łatwiejsze do sfinansowania. Kolejne 12% uważa, że ​​teoretyczne badania nad sztuczną inteligencją cierpią z tego powodu.

Jak poważny jest więc ten problem? Nawet jeśli duże firmy technologiczne wpływają na rodzaj prowadzonych przez nas badań, to prawdopodobnie ogromne sumy, jakie inwestują w tę dziedzinę, powinny mieć generalnie pozytywny wpływ. Jednak różnorodność jest kluczowa w badaniach – musimy podążać różnymi ścieżkami, aby mieć szansę na znalezienie najlepszej.

Jednak duże firmy technologiczne skupiają się obecnie tylko na jednym: rozbudowanych modelach językowych. Ten bardzo specyficzny typ modelu sztucznej inteligencji (AI) napędza niemal wszystkie najnowsze produkty z tej dziedziny, a ludzie tacy jak Sam Altman wierzą, że zwiększając skalę tych modeli (tj. udostępniając im więcej danych, więcej czasu na trenowanie i większą moc obliczeniową), ostatecznie osiągniemy poziom ogólnej sztucznej inteligencji (AI).

Ta koncepcja, znana jako hipoteza skali, głosi, że im więcej mocy dostarczymy sztucznej inteligencji, tym większe będą jej zdolności poznawcze i niższy wskaźnik błędów. Niektóre interpretacje zakładają również, że nowe zdolności poznawcze pojawią się niespodziewanie. Zatem, chociaż duże modele językowe nie są obecnie szczególnie dobre w planowaniu i rozumowaniu problemów, te zdolności muszą się w pewnym momencie pojawić.

Jednak w ostatnich miesiącach hipoteza skalowania spotkała się z ostrą krytyką. Niektórzy naukowcy uważają, że skalowanie dużych modeli językowych nigdy nie doprowadzi do powstania sztucznej inteligencji ogólnej i że cała dodatkowa moc, jaką zapewniamy… Nowe modele Nie przynosi już rezultatów. Zamiast tego, osiągnęliśmy „ścianę skalowania” lub „granicę skalowania”, gdzie duża moc obliczeniowa i dodatkowe dane prowadzą jedynie do drobnych ulepszeń w nowych modelach. Większość naukowców zaangażowanych w badanie AAAI opowiada się po tej stronie sporu:

Większość respondentów (76%) stwierdziła, że ​​„rozszerzanie obecnych podejść do sztucznej inteligencji” w celu osiągnięcia AGI jest „mało prawdopodobne” lub „bardzo mało prawdopodobne”, co wskazuje na wątpliwości co do tego, czy obecne modele uczenia maszynowego są wystarczające do osiągnięcia ogólnej inteligencji.

Obecne duże systemy językowe mogą generować bardzo istotne i przydatne odpowiedzi, gdy wszystko idzie dobrze, ale Oparte na zasadach matematycznych Aby to osiągnąć, wielu naukowców uważa, że ​​będziemy potrzebować nowych algorytmów, które wykorzystują logikę, rozum i wiedzę faktograficzną, aby znaleźć rozwiązanie, jeśli chcemy zbliżyć się do celu, jakim jest ogólna sztuczna inteligencja. Oto poruszający cytat z książki „Duże systemy językowe i ogólna sztuczna inteligencja” autorstwa… Praca badawcza z 2022 r. Autorzy: Jacob Browning i Yann LeCun.

System, który uczy się posługiwania się wyłącznie językiem, nigdy nie zbliży się do inteligencji człowieka, nawet jeśli będzie uczył się tego do końca wszechświata.

Nie ma jednak sposobu, aby stwierdzić, kto ma rację – na razie. Po pierwsze, definicja ogólnej sztucznej inteligencji nie jest sztywna i nie wszyscy dążą do tego samego. Niektórzy uważają, że ogólne SI powinny generować ludzkie reakcje za pomocą ludzkich metod – to znaczy powinny obserwować otaczający je świat i rozwiązywać problemy w sposób podobny do naszego. Inni uważają, że ogólne SI powinny koncentrować się bardziej na poprawnych odpowiedziach niż na odpowiedziach podobnych do ludzkich, a stosowane przez nie metody nie powinny mieć znaczenia.

Jednak pod wieloma względami nie ma znaczenia, którą wersją sztucznej inteligencji (AGI) jesteś zainteresowany, ani czy jesteś za, czy przeciw hipotezie skalowania – nadal musimy dywersyfikować nasze wysiłki badawcze. Jeśli skupimy się wyłącznie na skalowaniu dużych modeli językowych, będziemy musieli zaczynać od zera, jeśli się nie sprawdzą, i możemy nie odkryć nowych, skuteczniejszych i wydajniejszych metod. Wielu naukowców zaangażowanych w to badanie obawia się, że komercyjna sztuczna inteligencja i szum wokół niej spowolnią rzeczywisty postęp – ale wszystko, co możemy zrobić, to mieć nadzieję, że ich obawy zostaną rozwiane i że obie gałęzie badań nad sztuczną inteligencją będą mogły współistnieć i rozwijać się razem. Cóż, można również mieć nadzieję, że Bańka AI Jeśli wolisz, wszystkie produkty technologiczne oparte na sztucznej inteligencji eksplodują i znikają w zapomnieniu.

Możliwość dodawania komentarzy nie jest dostępna.