Analityczna sztuczna inteligencja: Twoja szansa w erze agentów LLM – od FOMO do wykorzystywania okazji
Dlaczego pęd do agentów modelu LLM (Large Language Model) nie sprawi, że sztuczna inteligencja analityczna stanie się przestarzała
Czy odczuwasz „lęk przed pominięciem” (FOMO) w przypadku agentów z dużym modelem językowym (LLM)? Cóż, ja też tak się czułem przez długi czas.
W ostatnich miesiącach mój kanał informacyjny został dosłownie zalany „agentami LLM”: co drugi blog technologiczny próbuje mi pokazać, „jak zbudować agenta w 5 minut”. Co drugi news technologiczny promuje kolejny błyskotliwy startup tworzący produkty oparte na agentach LLM albo dużą firmę technologiczną wypuszczającą nową bibliotekę do tworzenia agentów lub protokół agenta o wymyślnej nazwie (naoglądaliście się już MCP czy Agent2Agent?).

Nagle wydaje się, że agenci dużego modelu językowego (LLM) są wszędzie. Wszystkie te efektowne dema pokazują, że te cyfrowe bestie zdają się być więcej niż zdolne do pisania kodu, automatyzowania przepływów pracy i odkrywania spostrzeżeń, a jednocześnie grożą zastąpieniem… cóż, praktycznie wszystkiego.
Niestety, wielu naszych klientów biznesowych podziela ten pogląd. Aktywnie domagają się integracji funkcji agentów ze swoimi produktami. Niechętnie finansują nowe projekty rozwoju agentów, obawiając się, że pozostaną w tyle za konkurencją w wykorzystaniu tej nowej technologii.
Jako praktykAnalityczna sztuczna inteligencjaPo zobaczeniu imponujących ekspozycji salonów sprzedaży, które zbudowali moi koledzy, i pochlebnych opinii klientów, muszę przyznać, że poczułem poważny strach przed tym, że coś mi umyka (FOMO).
Szczerze mówiąc, zastanawiałem się: Czy praca, którą wykonuję, staje się nieistotna?
Po zmaganiu się z tym pytaniem, doszedłem do następującego wniosku:
Nie, wcale tak nie jest.
W tym wpisie na blogu chciałbym podzielić się swoimi przemyśleniami na temat przyczyn szybkiego wzrostu Agenci dużego modelu językowego (LLM) Analityczna sztuczna inteligencja jest ważna. Wręcz przeciwnie, moim zdaniem: stwarza bezprecedensowe możliwości zarówno dla analitycznej, jak i agentowej sztucznej inteligencji.
Przyjrzyjmy się bliżej dlaczego.
Zanim przejdziemy do szczegółów, szybko wyjaśnijmy terminologię:
- Analityczna sztuczna inteligencjaMam tu na myśli przede wszystkim techniki modelowania statystycznego i uczenia maszynowego stosowane do danych ilościowych i numerycznych. Mam na myśli zastosowania przemysłowe, takie jak wykrywanie anomalii, prognozowanie szeregów czasowych, optymalizacja projektowania produktów, konserwacja predykcyjna, cyfrowe bliźniaki itp.
- Agenci dużego modelu językowego (agenci LLM)Mam na myśli systemy sztucznej inteligencji, które wykorzystują duże modele językowe (LLM) jako rdzeń, który może autonomicznie wykonywać zadania, łącząc rozumienie języka naturalnego, rozumowanie, planowanie, pamięć i używanie narzędzi.
- Analityczna sztuczna inteligencjaMam tu na myśli przede wszystkim techniki modelowania statystycznego i uczenia maszynowego stosowane do danych ilościowych i numerycznych. Mam na myśli zastosowania przemysłowe, takie jak wykrywanie anomalii, prognozowanie szeregów czasowych, optymalizacja projektowania produktów, konserwacja predykcyjna, cyfrowe bliźniaki itp.
- Agenci dużego modelu językowego (agenci LLM)Mam na myśli systemy sztucznej inteligencji, które wykorzystują duże modele językowe (LLM) jako rdzeń, który może autonomicznie wykonywać zadania, łącząc rozumienie języka naturalnego, rozumowanie, planowanie, pamięć i używanie narzędzi.
Punkt widzenia 1: Analityczna sztuczna inteligencja dostarcza krytycznych ilościowych podstaw dla agentów dużego modelu językowego (LLM).
Pomimo imponujących możliwości rozumienia i generowania języka naturalnego, duże modele językowe (LLM) zasadniczo nie zapewniają dokładności ilościowej wymaganej w wielu zastosowaniach przemysłowych. Właśnie tutaj analityczna sztuczna inteligencja staje się niezbędna, ponieważ agenci LLM zapewniają niezbędne, solidne podstawy matematyczne.
Istnieje kilka kluczowych sposobów, w jaki analityczna sztuczna inteligencja może zwiększyć wydajność, zapewniając agentom dużego modelu językowego (LLM) precyzyjne podstawy matematyczne i gwarantując, że działają zgodnie z rzeczywistością:
🛠️ Analityczna sztuczna inteligencja jako niezbędne narzędzia
Integracja analitycznej sztucznej inteligencji jako specjalistycznych, łatwo wywoływalnych narzędzi to najczęstszy wzorzec zapewniania agentom dużego modelu językowego (LLM) podstaw ilościowych.
Od dawna (zanim nastał obecny szum wokół dużych modeli językowych) istniała tradycja tworzenia specjalistycznych narzędzi analitycznych AI w różnych branżach, które miałyby na celu rozwiązywanie problemów z wykorzystaniem rzeczywistych danych operacyjnych. Wyzwania te, niezależnie od tego, czy chodzi o przewidywanie konserwacji sprzętu, czy prognozowanie zużycia energii, wymagają wysokiej dokładności numerycznej i zaawansowanych możliwości modelowania. Mówiąc wprost, możliwości te zasadniczo różnią się od mocnych stron lingwistycznych i inferencyjnych, które charakteryzują dzisiejsze duże modele językowe.
Ten solidny fundament dla analitycznej sztucznej inteligencji jest nie tylko istotny, ale wręcz niezbędny do stworzenia agentów dużego modelu językowego o realistycznej dokładności i niezawodności operacyjnej. Głównym motywem jest… rozdzielenie interesów:Niech agenci dużych modeli językowych zajmą się zrozumieniem, rozumowaniem i planowaniem, podczas gdy narzędzia analityczne AI wykonają specjalistyczną analizę ilościową, w zakresie której zostały wyszkolone.
W tym modelu narzędzia analityczne AI mogą odgrywać kilka kluczowych ról. Przede wszystkim mogą Zwiększanie możliwości agentów Z nadprzyrodzonymi zdolnościami analitycznymi, których naturalnie mu brakuje. Poza tym potrafią Zweryfikuj wyniki/hipotezy agenta w porównaniu z rzeczywistymi danymi i wyuczonymi wzorcami. Wreszcie mogą Nakładanie ograniczeń materialnych, zapewniając, że agenci działają w realistycznie wykonalnej przestrzeni.
Aby podać konkretny przykład, wyobraźmy sobie dużego agenta modelu językowego, którego zadaniem jest optymalizacja złożonego procesu produkcji półprzewodników w celu zwiększenia wydajności i utrzymania stabilności. Zamiast polegać wyłącznie na logach tekstowych/notatkach operatora, agent stale współpracuje z zestawem specjalistycznych narzędzi analitycznych AI, aby uzyskać ilościowe i bogate w kontekst zrozumienie procesu w czasie rzeczywistym.
Na przykład, aby osiągnąć cel wysokiej przepustowości, agent wysyła zapytania Model XGBoost Wstępnie przeszkolony agent jest w stanie przewidywać potencjalną produktywność na podstawie setek odczytów czujników i parametrów procesu, co zapewnia mu wgląd w wyniki jakościowe.
Jednocześnie, aby zapewnić stabilność procesu i stałą jakość, agent dzwoni model autoenkodera (Wstępnie przeszkolony na podstawie danych dotyczących normalnego procesu) w celu identyfikacji potencjalnych odchyleń lub usterek sprzętu Przed Zakłócić produkcję.
Gdy pojawią się potencjalne problemy, jak wskazuje model wykrywania anomalii, agent powinien w idealnym przypadku dokonać korekty kursu. W tym celu wywołuje Model optymalizacji oparty na ograniczeniach, który wykorzystuje algorytm Optymalizacja bayesowska Zalecanie optymalnych zmian parametrów procesu.
W tym scenariuszu agent dużego modelu językowego działa zasadniczo jak inteligentny koordynator. Interpretuje cele wysokiego poziomu, planuje zapytania do odpowiednich narzędzi analitycznych AI, wnioskuje o ich ilościowych wynikach i przekłada te złożone analizy na praktyczne wnioski dla operatorów, a nawet uruchamia automatyczne korekty. Ta współpraca gwarantuje, że agenci dużego modelu językowego pozostają solidni i niezawodni w rozwiązywaniu złożonych, rzeczywistych problemów przemysłowych.
🪣 Analityczna sztuczna inteligencja jako cyfrowe środowisko testowe
Oprócz tego, że jest narzędziem, do którego można zadzwonić, sztuczna inteligencja analityczna zapewnia inną ważną możliwość: tworzenie Środowiska symulacyjne Realizm: Agenci LLM (Large Language Model) są szkoleni i oceniani przed interakcją ze światem fizycznym. Jest to szczególnie cenne w zastosowaniach przemysłowych, gdzie awarie mogą mieć poważne konsekwencje, takie jak uszkodzenie sprzętu lub incydenty bezpieczeństwa. Te symulacje cyfrowe są niezbędne do zapewnienia bezpieczeństwa operacyjnego i poprawy wydajności.
Analityczne techniki sztucznej inteligencji (AI) mają potencjał tworzenia wysoce dokładnych reprezentacji zasobów lub procesów przemysłowych, ucząc się zarówno z historycznych danych operacyjnych, jak i z rządzących nimi równań fizycznych (pomyślmy o metodach takich jak sieci neuronowe oparte na fizyce). cyfrowe bliźniaki Rejestrują one podstawowe zasady fizyczne, ograniczenia operacyjne i inherentną zmienność systemu. Wykorzystanie tych cyfrowych bliźniaków umożliwia precyzyjną analizę i wiarygodne prognozy.
W tym wirtualnym świecie, opartym na analitycznej sztucznej inteligencji, agenta opartego na dużym modelu językowym (LLM) można wytrenować, najpierw otrzymując symulowane dane z czujników, podejmując decyzje dotyczące działań kontrolnych, a następnie obserwując reakcje systemu obliczone przez symulację analitycznej sztucznej inteligencji. W rezultacie agenci mogą iterować wiele cykli uczenia się metodą prób i błędów w znacznie krótszym czasie i bezpiecznie wystawiać się na działanie w różnorodnych, realistycznych warunkach. Przyspiesza to proces rozwoju i zmniejsza ryzyko.
Oprócz szkolenia agentów, symulacje te, oparte na analitycznej sztucznej inteligencji, zapewniają kontrolowane środowisko dla Ocena i porównanie Wydajność i niezawodność różnych wersji konfiguracji agentów lub polityk kontroli są starannie oceniane przed wdrożeniem w praktyce. Ta kompleksowa ocena zapewnia optymalną wydajność i niezawodność.
Aby podać konkretny przykład, rozważmy przypadek zarządzania siecią energetyczną. Agenta (lub wielu agentów) modelu dużego języka (LLM) zaprojektowanego w celu optymalizacji integracji energii odnawialnej można by przetestować w takim symulowanym środowisku, wspieranym przez wiele analitycznych modeli sztucznej inteligencji: Moglibyśmy mieć model Sieć neuronowa oparta na fizyce (PINN) do opisu złożonych, dynamicznych przepływów mocy. Możemy również korzystać z probabilistycznych modeli prognostycznych do symulacji realistycznych wzorców pogodowych i ich wpływu na wytwarzanie energii odnawialnej. W tym bogatym środowisku agenci modelu dużego języka (LLM) mogą nauczyć się opracowywać zaawansowane strategie decyzyjne w celu zrównoważenia sieci w różnych warunkach pogodowych, bez ryzyka rzeczywistych przerw w dostawie energii. Umożliwia to efektywne i zrównoważone zarządzanie siecią energetyczną.
Sednem sprawy jest to, że bez analitycznej sztucznej inteligencji (AI) nic z tego nie byłoby możliwe. Stanowi ona ilościowy fundament i fizyczne ograniczenia, które sprawiają, że rozwój bezpiecznych i wydajnych agentów staje się rzeczywistością. Analityczna sztuczna inteligencja jest fundamentem rozwoju inteligentnych i niezawodnych systemów.
📈 Analityczna sztuczna inteligencja jako narzędzie operacyjne
Teraz, jeśli spojrzymy na szerszy obraz z nowej perspektywy, Czy agent dużego modelu językowego (LLM) – lub nawet zespół agentów – nie jest po prostu kolejnym rodzajem systemu operacyjnego, którym należy zarządzać jak każdym innym zasobem/procesem przemysłowym?
Oznacza to, że wszystkie zasady projektowania, optymalizacji i monitorowania systemów nadal obowiązują. I wiecie co? Analityczna sztuczna inteligencja jest właśnie do tego narzędziem.
Analityczna sztuczna inteligencja ma po raz kolejny potencjał, aby wyprowadzić nas poza eksperymentalne próby i błędy (obecne praktyki) i w stronę metod Obiektywność وOparte na danych Aby zarządzać inteligentnymi systemami. Co powiesz na użycie? Algorytm optymalizacji bayesowskiej Zaprojektować architekturę i konfiguracje agenta? A co z przyjęciem? Techniki badań operacyjnych Aby usprawnić alokację zasobów obliczeniowych lub efektywnie zarządzać kolejkami zamówień? A co z wykorzystaniem metod? Wykrywanie anomalii w szeregach czasowych Aby powiadamiać agentów o zachowaniach w czasie rzeczywistym?
Traktowanie agenta dużego modelu językowego (LLM) jako złożonego systemu podlegającego analizie ilościowej otwiera wiele nowych możliwości. To właśnie ta dyscyplina operacyjna, wspierana przez analityczną sztuczną inteligencję, może sprawić, że agenci przestaną być jedynie „demonstracjami” i staną się czymś niezawodnym, wydajnym i prawdziwie użytecznym w nowoczesnych procesach przemysłowych.
Punkt widzenia 2: Analityczną sztuczną inteligencję można wzmocnić za pomocą agentów dużego modelu językowego (LLM) dzięki ich inteligencji kontekstowej..
Szeroko omówiliśmy, jak ważna jest analityczna sztuczna inteligencja (AI) dla ekosystemu agentów dużego modelu językowego. Ta potężna synergia działa jednak w obie strony. Analityczna sztuczna inteligencja może również wykorzystać unikalne atuty agentów dużego modelu językowego, aby zwiększyć swoją użyteczność, skuteczność i ostatecznie wpływ na rzeczywistość. To są kwestie, których praktycy analitycznej AI nie powinni przegapić, jeśli chodzi o agentów dużego modelu językowego, ponieważ mogą one znacząco usprawnić analizę danych i procesy decyzyjne.
🧩 Od niejasnych celów do rozwiązywalnych problemów
Często potrzeba analizy zaczyna się od ogólnego, niejasnego celu biznesowego, takiego jak „Musimy poprawić jakość produktu”. Aby ten cel był realny, praktycy analityki AI muszą wielokrotnie zadawać doprecyzowujące pytania, aby odkryć rzeczywiste funkcje celu, konkretne ograniczenia i dostępne dane wejściowe, co nieuchronnie prowadzi do niezwykle czasochłonnego procesu. Wymaga to dogłębnego zrozumienia istotnych kluczowych wskaźników efektywności (KPI).
Dobrą wiadomością jest to, że agenci modelu dużego języka (LLM) doskonale sobie z tym radzą. Potrafią interpretować te niejednoznaczne zapytania w języku naturalnym, zadawać doprecyzowujące pytania i formułować je w dobrze ustrukturyzowane problemy ilościowe, które narzędzia analityczne AI mogą bezpośrednio rozwiązywać. To znacznie przyspiesza proces identyfikacji i formułowania problemów, oszczędzając cenny czas zespołom analizy danych.
📚 Wzbogacanie modeli analitycznych AI o kontekst i wiedzę
Tradycyjne analityczne modele sztucznej inteligencji (AI) działają głównie na danych numerycznych. W przypadku danych w dużej mierze nieustrukturyzowanych i niewykorzystanych, agenci modeli wielkojęzykowych (LLM) mogą być niezwykle przydatni do wydobywania użytecznych informacji, które następnie można wykorzystać w analizie ilościowej.
Na przykład agenci modelu dużego języka (LLM) mogą analizować dokumenty/raporty/logi tekstowe w celu identyfikacji istotnych wzorców i przekształcać te jakościowe obserwacje w cechy ilościowe, które analityczne modele sztucznej inteligencji mogą przetwarzać. Ten krok często usprawnia Inżynieria cech Znacznie poprawia to wydajność analitycznych modeli AI, dając im dostęp do spostrzeżeń zawartych w nieustrukturyzowanych danych, które w przeciwnym razie mogłyby zostać pominięte. Zaawansowana inżynieria funkcji jest niezbędna do poprawy dokładności modeli.
Innym ważnym przypadkiem użycia jest Etykietowanie danychW tym przypadku agenci modelu dużego języka (LLM) mogą automatycznie generować dokładne etykiety i adnotacje klas. Dostarczając wysokiej jakości dane treningowe, mogą znacznie przyspieszyć rozwój wydajnych modeli uczenia nadzorowanego.
Wreszcie, korzystając z wiedza, umiejętności Agenci dużych modeli językowych (LLM), czy Wstępnie wyszkolony W Modelu Dużego Języka (LLM) lub Aktywnie wyszukiwane W zewnętrznych bazach danych agenci modelu dużego języka (LLM) mogą automatyzować konfigurację zaawansowanych procesów analitycznych. Agenci LLM mogą rekomendować odpowiednie algorytmy i ustawienia parametrów na podstawie charakterystyki problemu [1], generować kod w celu wdrożenia niestandardowych strategii rozwiązywania problemów, a nawet automatycznie uruchamiać eksperymenty w celu dostrojenia hiperparametrów [2].
💡Od wyników technicznych do praktycznych spostrzeżeń
Analityczne modele sztucznej inteligencji (AI) zazwyczaj generują gęste wyniki, a ich prawidłowa interpretacja wymaga specjalistycznej wiedzy i czasu. Z drugiej strony, agenci dużych modeli językowych (LLM) mogą pełnić rolę „tłumaczy”, przekształcając te gęste wyniki ilościowe w jasne, przystępne interpretacje w języku naturalnym.
Ta rola interpretowalności odgrywa kluczową funkcję w wyjaśnił Decyzje podejmowane przez analityczne modele AI są rejestrowane w sposób, który operatorzy mogą szybko zrozumieć i na podstawie którego mogą podjąć działania. Co więcej, informacje te mogą być nieocenione dla twórców modeli w zakresie walidacji wyników modeli, identyfikacji potencjalnych problemów i poprawy ich wydajności. Proces ten sprzyja głębszemu zrozumieniu procesów AI.
Oprócz wyjaśnień technicznych, agenci modelu LLM (Large Language Model) mogą również tworzyć spersonalizowane odpowiedzi dla różnych grup odbiorców: zespoły techniczne otrzymają szczegółowe wyjaśnienia metodologiczne, personel operacyjny – praktyczne implikacje, a kadra kierownicza – podsumowania z uwzględnieniem wskaźników wpływu na biznes. Taka personalizacja gwarantuje, że właściwe informacje dotrą do właściwych interesariuszy.
Działając jako Tłumacze Współpracując z systemami analitycznymi i użytkownikami, agenci dużych modeli językowych (LLM) mogą znacznie zwiększyć praktyczną wartość analitycznej sztucznej inteligencji.
Punkt widzenia 3: Być może przyszłość leży w prawdziwej współpracy między sztuczną inteligencją analityczną a sztuczną inteligencją agentową.
Niezależnie od tego, czy agenci modelu dużego języka (LLM) korzystają z narzędzi analitycznej sztucznej inteligencji (AI), czy systemy analityczne wykorzystują agentów LLM do interpretacji, omówione do tej pory podejścia zawsze koncentrowały się na tym, że jeden typ AI odpowiada za inny. W rzeczywistości wprowadziło to kilka ograniczeń, które warto przeanalizować.
Przede wszystkim, w obecnym paradygmacie, analityczne komponenty sztucznej inteligencji są wykorzystywane wyłącznie jako pasywne narzędzia, uruchamiane tylko wtedy, gdy duży model języka zdecyduje się na to. Uniemożliwia im to proaktywne dostarczanie spostrzeżeń lub kwestionowanie założeń.
Ponadto typowa pętla agenta „planuj-wywołaj-reaguj-działaj” jest z natury sekwencyjna. Może to być nieefektywne w przypadku zadań, które mogłyby skorzystać z przetwarzania równoległego lub asynchronicznej interakcji między sztuczną inteligencją.
Kolejnym czynnikiem ograniczającym jest ograniczona przepustowość komunikacji. Wywołania API mogą nie być w stanie zapewnić bogatego kontekstu niezbędnego do rzeczywistego dialogu lub pośredniczącej wymiany wniosków.
Wreszcie, zrozumienie agentów dużych modeli językowych dla narzędzi analitycznej sztucznej inteligencji (AI) często opiera się na zwięzłej dokumentacji i schemacie parametrów. Agenci dużych modeli językowych prawdopodobnie popełniają błędy w doborze narzędzi, podczas gdy komponentom analitycznej AI brakuje kontekstu niezbędnego do rozpoznania, kiedy są niewłaściwie używane.
To, że model wywoływania narzędzi jest dziś powszechny, niekoniecznie oznacza, że przyszłość będzie wyglądać tak samo. Być może przyszłość leży w prawdziwym modelu współpracy peer-to-peer, w którym żaden typ sztucznej inteligencji nie będzie dominował.
Jak to może wyglądać w praktyce? Ciekawym przykładem, który znalazłem, jest rozwiązanie firmy Siemens [3].
W ich inteligentnym systemie fabrycznym model cyfrowego bliźniaka stale monitoruje stan sprzętu. Gdy skrzynia biegów ulega pogorszeniu, analityczny system sztucznej inteligencji nie czeka na zapytanie, lecz proaktywnie uruchamia alerty. Agent Copilot LLM monitoruje ten sam wektor zdarzeń. Po otrzymaniu alertu (1) porównuje dane z dokumentacją konserwacyjną, (2) „żąda” od bliźniaka ponownego uruchomienia symulacji z uwzględnieniem nadchodzących zmian oraz (3) zaleca korekty harmonogramu, aby zapobiec kosztownym przestojom. Wyjątkowość tego przykładu polega na tym, że analityczny system sztucznej inteligencji nie jest jedynie narzędziem pasywnym. W razie potrzeby inicjuje dialog.
Oczywiście, to tylko jedna z możliwych architektur systemu. Inne podejścia, takie jak Systemy wieloagentowe ze specjalistycznymi funkcjami poznawczymi, a może nawet trening krzyżowy Aby te systemy mogły rozwijać modele hybrydowe uwzględniające aspekty obu systemów sztucznej inteligencji (tak jak ludzie rozwijają zintegrowane rozumowanie matematyczne i językowe) lub po prostu czerpać inspirację z Techniki uczenia się grupowego Powstały w wyniku traktowania dużych modeli językowych i analitycznych agentów AI jako różnych typów modeli, które można łączyć w sposób systematyczny. Przyszłe możliwości są nieograniczone.
Ale stawiają one również fascynujące wyzwania badawcze. Jak projektujemy współdzielone reprezentacjeJaka struktura najlepiej to wspiera? asynchroniczna wymiana informacji? Co to jest? Protokoły komunikacyjne Jaki jest ideał pomiędzy analityczną sztuczną inteligencją a agentami?
Te pytania otwierają nowe horyzonty, które z pewnością wymagają specjalistycznej wiedzy od praktyków analitycznej sztucznej inteligencji. Ponownie, dogłębna wiedza na temat budowania modeli analitycznych z precyzją ilościową nie jest przestarzała, ale jest niezbędna do budowania hybrydowych systemów przyszłości.
Czwarta perspektywa: stwórzmy zintegrowaną przyszłość.
Jak widzieliśmy w tym artykule, przyszłość nie polega na „analitycznej sztucznej inteligencji kontra agenci dużego modelu językowego (LLM)”, lecz raczej Analityczna sztuczna inteligencja + agenci dużego modelu językowego (LLM).
Zamiast więc odczuwać strach przed przegapieniem okazji w związku z agentami dużego modelu językowego (LLM), odczuwam teraz odnowiony entuzjazm dla ewoluującej roli analitycznej sztucznej inteligencji. Fundamenty analityczne, które zbudowaliśmy, nie stają się przestarzałe; są niezbędnymi elementami bardziej wydajnego ekosystemu sztucznej inteligencji.
Budujmy.
recenzent
[1] Chen i wsp., PyOD 2: Biblioteka języka Python do wykrywania wartości odstających z selekcją modeli opartą na LLM. ar Xiv, 2024.
[2] Liu i wsp., Duże modele językowe usprawniające optymalizację bayesowską. arXiv, 2024.
[3] Siemens prezentuje przełomowe innowacje w dziedzinie przemysłowej sztucznej inteligencji i technologii cyfrowego bliźniaka na targach CES 2025. Komunikat prasowy, 2025.
Możliwość dodawania komentarzy nie jest dostępna.