Duże modele biznesowe (LAM) rewolucjonizują świat sztucznej inteligencji w porównaniu z modelami tradycyjnymi.
Pojawienie się generatywnych chatbotów opartych na sztucznej inteligencji dało początek koncepcji „modelu dużego języka” (LLM), zaawansowanej technologii sztucznej inteligencji, która analizuje i rozumie język naturalny, aby generować sensowne odpowiedzi na zapytania użytkowników. LLM charakteryzują się zdolnością do generowania spójnych, ludzki treści, co stwarza wrażenie, że sztuczna inteligencja posiada swoisty, własny „myśl”.
Jednak modele językowe to nie jedyna technologia przyczyniająca się do rozwoju sztucznej inteligencji (AI). Kolejnym krokiem mogą być wielkoskalowe modele biznesowe (LAM). Modele te koncentrują się na rozwijaniu możliwości analitycznych i decyzyjnych w praktycznych kontekstach, potencjalnie transformując takie obszary jak automatyzacja i zarządzanie biznesem. W tym artykule przyjrzymy się, jak działają LLM i LAM oraz ich rosnącemu wpływowi na ulepszanie zastosowań AI i poszerzanie ich zakresu.

Czym jest duży model biznesowy (LAM)?
Duży model roboczy (LAM) to model sztucznej inteligencji (AI) zdolny do rozumienia ludzkich danych wejściowych i wykonywania odpowiednich działań, umożliwiając interakcję ze światem w sposób zbliżony do ludzkiego. To nieco inne podejście niż modele AI, które koncentrują się wyłącznie na generowaniu odpowiedzi. Termin „duży model roboczy” został po raz pierwszy wprowadzony przez firmę Rabbit Inc., twórcę Rabbit R1. W filmie promocyjnym firmy Rabbit R1, LAM stwierdza, że to nowy model fundamentalny, który pomaga przekształcić AI ze słów w czyny.
LAM-y są trenowane na dużych zbiorach danych dotyczących działań użytkowników; następnie uczą się, naśladując działania człowieka lub poprzez demonstrację. Dzięki demonstracjom LAM potrafi zrozumieć i poruszać się po interfejsach użytkownika różnych stron internetowych lub aplikacji mobilnych oraz wykonywać określone czynności zgodnie z instrukcjami. Według królikLAM może to osiągnąć nawet po niewielkiej zmianie interfejsu.
Można postrzegać LAM jako rozszerzenie istniejących możliwości LLM. Podczas gdy generatywne dane tekstowe lub multimedialne w LLM opierają się na danych wprowadzanych przez użytkownika, przewidując kolejne słowo lub token (zadajesz pytanie, a model LLM dostarcza dane tekstowe lub multimedialne), LAM rozwijają tę ideę, dodając możliwość wykonywania złożonych działań w Twoim imieniu.
Co potrafią LAM-y?
LAM-y zostały zaprojektowane do wykonywania złożonych czynności w Twoim imieniu. Kluczową kwestią, na którą należy zwrócić uwagę, jest ich zdolność do wykonywania złożonych czynności. To sprawia, że LAM-y są bardziej przydatne w przypadku zaawansowanych zadań, ale to nie znaczy, że nie mogą wykonywać prostszych czynności.
Teoretycznie oznacza to, że możesz na przykład poprosić modelkę LAM o wykonanie jakiejś czynności, na przykład zamówienie kawy z pobliskiej kawiarni, przejazd Uberem, a nawet dokonanie rezerwacji hotelowej. To zupełnie co innego niż wykonywanie prostych zadań, takich jak proszenie Asystenta Google, Siri czy Alexy o włączenie telewizora lub światła w salonie.
Zgodnie z wizją firmy Rabbit Inc., model LAM umożliwia dostęp do odpowiedniej strony internetowej lub aplikacji, takiej jak Uber, i poruszanie się po jej interfejsie w celu podjęcia działania, takiego jak zamówienie przejazdu lub jego anulowanie w przypadku zmiany zdania.
Studia LAM będą miały lepsze wyniki niż studia LLM, ale (jeszcze) nie są na to gotowe.
Koncepcja modeli LAM jest ekscytująca, być może nawet bardziej niż LLM. Modele operacyjne na dużą skalę (LAM) będą przyszłością po generatywnej sztucznej inteligencji, umożliwiając nam odciążenie się od monotonnych zadań i skupienie się na innych, satysfakcjonujących aktywnościach. Jednak, choć brzmi to ekscytująco, modele LAM nie są jeszcze gotowe.
Pierwszy komercyjny produkt, który obiecywał wykorzystanie technologii LAM (Rawbon r1), nie do końca spełnił obietnicę marketingową, polegającą na wykonywaniu działań w imieniu użytkowników. Urządzenie zawiodło w swojej głównej funkcji sprzedażowej tak bardzo, że wiele recenzji z pierwszej ręki określało je jako niemal bezużyteczne.
Co gorsza, dochodzenie przeprowadzone przez YouTubera Coffeezilla we współpracy z wybraną grupą inżynierów oprogramowania z dostępem do części bazy danych Rabbit r1 wykazało, że Rabbit używał skryptów Playwrighta do wykonywania akcji zamiast LAM. W rezultacie, zamiast maszyny obsługującej unikalny model sztucznej inteligencji, w rzeczywistości wykonywał on jedynie zestaw instrukcji If > Then – co jest dalekie od obiecywanego modelu LAM.
Jeśli można wynieść coś z Rabbit r1, to to, że wizja jest. Jednak przed wdrożeniem trzeba wykonać pewne prace, więc nie ma co się jeszcze ekscytować.
Możliwość dodawania komentarzy nie jest dostępna.