Agenci AI nie są LLM-ami ani chatbotami
W skrócie
Chatboty są przestarzałe, a same programy nauczania LLM nie wystarczą — przyszłość należy do prawdziwych agentów AI, którzy łączą rozumienie, rozumowanie i działanie, aby autonomicznie wykonywać złożone zadania w systemach świata rzeczywistego.
Za rok świat będzie pamiętał chatboty tak, jak pamięta faksy: niezręczny krok na drodze do czegoś lepszego. Zapytaj dowolnego dyrektora operacyjnego o wdrożenie chatbota, a zobaczysz to samo grzeczne wzruszenie ramion: „Jest toporny, wymagający, nie radzi sobie z odpowiedziami na często zadawane pytania. Nadal potrzebujemy ludzi”.
Każdemu z nas się to zdarzyło. Próbujesz zmienić czas lub adres dostawy ważnej przesyłki. Chatbot uprzejmie odpowiada, że przyjął Twoją prośbę do wiadomości i teraz zleci obsługę klienta, aby zajęła się logistyką. Nie podejmuje żadnych innych działań. Czujesz frustrację.
Oto rzeczywistość: era chatbotów dobiegła końca. Przedsiębiorstwa, które się jej kurczowo trzymają, stracą czas, pieniądze i talenty. Pojawia się nowa generacja – autonomiczni agenci AI – a przepaść między tymi dwoma podejściami zadecyduje, które firmy pójdą naprzód, a które pozostaną uwięzione w czyśćcu obsługi klienta.
Jak utknęliśmy z chatbotami-zombie
Wczesne chatboty miały być linią frontu automatyzacji. Zamiast tego stały się najmniej lubianym doświadczeniem klienta. Dlaczego? Ponieważ nigdy nie zostały stworzone, aby cokolwiek rozumieć.
Od samego początku opierały się na regułach. Skrypty na sztywno, liniowe drzewa decyzyjne, przepływy „jeśli to, to tamto”, które błyskawicznie eksplodują złożonością. Powiedz dokładnie to, czego potrzebujesz, a oni odpowiedzą. Nawet niewielkie odchylenie od reguły oznacza, że zostaniesz zignorowany lub cofnięty do początku. Jak menu IVR z lepszymi manierami. Rozgałęzienia wykładnicze sprawiają, że tradycyjne chatboty są niemożliwe do utrzymania poza 20 typowymi przypadkami użycia, nie mówiąc już o zapewnieniu zwrotu z inwestycji (ROI).
Problem nie leży tylko w złym UX, ale także w architekturze. Systemy oparte na regułach nie generalizują. Potrafią reagować tylko na predefiniowanedefiPotrzebne dane wejściowe i scenariusze. W chwili, gdy coś się zmienia – aktualizacja polityki, nowy poziom cenowy, klient zadający ważne pytanie w nieco inny sposób – cały proces się załamuje.
Co będzie dalej? Eskalacja na ludzi. Raz po raz.
Tymczasem pracownicy pierwszej linii utknęli, wykonując te same powtarzalne zadania, których bot nie był w stanie dokończyć — ręczne aktualizowanie rejestrów wysyłek, dzwonienie do kierowcy, rejestrowanie aktualizacji — podczas gdy na pulpicie nawigacyjnym wyświetla się komunikat o „pomyślnej interakcji”. Dla kogo to tak naprawdę działa?
Obecnie większość wdrożeń „czatbotów AI” w przedsiębiorstwach to niewiele więcej niż udoskonalone drzewa decyzyjne. Ulepszenia kosmetyczne – bardziej przyjazny ton, firmowe awatary – nie zmienią podstawowej rzeczywistości: są kruche, powierzchowne i łatwo się zacinają.
Ale te boty były sprzedawane jako cudowne remedium. Firmy inwestowały więc dalej, mając nadzieję, że każda nowa wersja w końcu zamknie pętlę. Tak się nie stało. Nie mogło. Ponieważ architektura nigdy nie została stworzona z myślą o autonomicznym rozumieniu i działaniu – została stworzona po to, by odrzucać zgłoszenia.
Dlatego większość wskaźników KPI chatbotów jest powierzchowna: CSAT, wskaźnik przełączeń, długość sesji. W chwili, gdy zapytasz: „Czy to faktycznie rozwiązało problem?”, pulpity nawigacyjne milkną.
Kiedy świętujesz wyniki chatbota, tak naprawdę świętujesz bieżnię dla przebytego dystansu. Mówiąc prościej: dużo ruchu, ale nigdzie nie trzeba iść.
Potem nadeszli LLM-owie – gaduły, nie czyny
Wchodzę GPT i jego kuzyni. Nagle boty mogły prowadzić rozmowy. Rozumiały slang. Radziły sobie z niejednoznacznościami. Pamiętały rzeczy i miały długą pamięć kontekstową.
To było jak magia. I to był prawdziwy krok naprzód. Po raz pierwszy sztuczna inteligencja była w stanie generować reakcje zbliżone do ludzkich na dużą skalę. Sztuczna inteligencja jest inteligentna.
Jest jednak pewien haczyk: absolwenci studiów prawniczych (LLM) są świetnymi improwizatorami, a nie operatorami.
Nie mają ustrukturyzowanych celów. Nie „wiedzą”, kiedy zadanie jest ukończone. Nie mogą niezawodnie uzyskiwać dostępu, aktualizować ani egzekwować reguł biznesowych bez wsparcia. To, co tworzą, to język – przekonujący, jasny i czasami użyteczny, ale rzadko wiążący.
Kiedy LLM informuje Cię, że złożył wniosek, to znaczy, że go nie złożył. Dopóki nie zostanie on uwzględniony w warstwie orkiestracji, która łączy język z działaniem, to wciąż będą to tylko puste słowa.
Choć studia LLM posunęły branżę do przodu, nie rozwiązały problemu braku realizacji. Stworzyły nową kategorię fałszywych oczekiwań. Teraz użytkownicy nie są już sfrustrowani tylko botami — są zdezorientowani sztuczną inteligencją, która brzmi inteligentnie, ale tak naprawdę nie potrafi im pomóc.
To właśnie to zamieszanie doprowadziło nas tutaj: do przepływów pracy AI i agentów AI.
Czym naprawdę jest agent AI
Przepływ pracy w sztucznej inteligencji (AI) to model LLM, który wykonuje polecenia z predefiniowanymi krokami. Jednak w świecie rzeczywistym często nie da się przewidzieć kroków z góry.
Tu właśnie wkraczają agenci AI. To LLM, który integruje się z narzędziami zewnętrznymi, potrafi dogłębnie rozumować i — wykorzystując wszystko, do czego ma dostęp — rozwiązuje złożone problemy, które ludziom zajęłyby o rzędy wielkości więcej czasu.
Agenci AI osiągają to poprzez połączenie wszystkich trzech warstw.
Po pierwsze, warstwa konwersacji, która często jest LLM-em interpretującym intencje (tak, LLM-y są przydatne, ale nazywanie LLM „rozwiązaniem AI” domyślnie jest jak nazywanie modemów dial-up Wi-Fi); po drugie, warstwa rozumowania, która określa wszystkie reguły, polityki i planowanie zadań decydujące o tym, co powinno się wydarzyć; i po trzecie, warstwa wykonania z bezpiecznymi łącznikami do CRM-ów, ERP-ów, szyn płatności, systemów głosowych i wszelkich starszych potworów, które kryją się w szafie.
Usuń dowolną warstwę, a wieża się zawali. Pozostaw je razem, a system przejdzie z trybu „odpowiedz” do „rozwiąż”.
Przyjrzyjmy się ponownie sytuacji klienta, który musi zmienić trasę przesyłki.
Tradycyjnie chatboty mogły wykonać pierwszy krok – obsługę zgłoszeń. LLM-y mogą pójść o krok dalej. Wtedy do akcji musi wkroczyć człowiek. Podejmują decyzje, a następnie ręcznie wpisują odpowiedzi. To uciążliwe. Teraz agent AI proaktywnie realizuje cały przepływ pracy, podejmuje autonomiczne decyzje, współpracuje z systemami zaplecza i rejestruje działania na potrzeby audytu – wszystko to bez ingerencji człowieka, chyba że jest to absolutnie konieczne.
Kredyt obrazu: Jurin AI
Agent w trzydzieści sekund wykonuje to, co w innym przypadku wymagałoby rotacji między wieloma działami. Kontroluje zadanie od początku do końca.
Przestańmy więc nazywać wszystko „agentem”
Termin „agent AI” przeżywa swój rozkwit – ale jak wszystkie dobre hasła, jest on coraz bardziej naciągany. Każdy dostawca oferujący chatbota i API twierdzi teraz, że oferuje „agentów”. Niektórzy używają tego określenia tylko dlatego, że ich LLM pamięta twoje imię przez pięć tur.
To nadużycie to nie tylko zbędny element brandingu – to prawdziwy zamęt. Uczy kupujących, by oczekiwali rezultatów od narzędzi, które nigdy nie zostały do tego zaprojektowane. Spowalnia adopcję, tworząc fałszywe oczekiwania, a następnie prowadząc do prawdziwego rozczarowania. Co najgorsze, pozwala przedsiębiorstwom przekonać się, że wprowadzają innowacje, podczas gdy tak naprawdę jedynie dodali nowy interfejs użytkownika do tego samego, starego działu obsługi klienta.
Ale transformacja w kierunku sztucznej inteligencji jest faktem.
Prawdziwi agenci AI nie tylko chętniej prowadzą konwersacje. Są bardziej odpowiedzialni. Głęboko się integrują, działają odpowiedzialnie i dostarczają identyfikowalne, kluczowe dla biznesu rezultaty. Nie są tylko interfejsem – są infrastrukturą.
A jesteśmy dopiero na początku.
Przyszłość informacji: od aplikacji do agentów AI
Przez lata dostosowywaliśmy się do logiki maszyn. Klikaliśmy w menu, uczyliśmy się interfejsów na pamięć, żonglowaliśmy pięcioma kartami, żeby wykonać zadanie. Wyszukiwanie stało się inteligentniejsze, aplikacje bardziej eleganckie – ale ciężar pozostał po stronie użytkownika.
Agenci AI odwracają tę sytuację.
Zamiast prosić Cię o nauczenie się, jak działa system, system uczy się, jak Ty pracujesz — poprzez naturalną rozmowę.
Chcesz zarezerwować podróż? Po prostu porozmawiaj ze swoim prywatnym konsjerżem AI:
„Zaplanuj pieszą wycieczkę w Alpy na początku września, z dala od utartych szlaków.”
I tak się dzieje. Loty, hotele, lokalni przewodnicy – a nawet ukryte perełki, których nigdy nie odkryłbyś sam. Żadnych stron internetowych z lat 90. ani topornych aplikacji mobilnych z kiepskim UX. Tylko rozmowa, która załatwia sprawę.
Oznacza to odejście od aplikacji obsługiwanych przez Ciebie na rzecz agentów, którzy działają w Twoim imieniu.
I nie skończy się na podróżach. Agenci zmienią sposób, w jaki wchodzimy w interakcje ze wszystkim – logistyką, zaopatrzeniem, zgodnością z przepisami, działem HR. Po cichu przekształcą kruche narzędzia i rozproszone przepływy pracy dzięki inteligentnym systemom, które potrafią rozumować, działać i ulepszać się z czasem.
To jest agentyczna przyszłość, w której zadania będą wykonywane natychmiastowo za pośrednictwem głosu lub tekstu przez sztuczną inteligencję, która rozumie, działa i dostarcza treści — Twojego osobistego asystenta kierowniczego.
To nie jest wizja science fiction. To kwestia zaledwie roku, dwóch lat. A my w Jurin AI już do niej dążymy.
Nadeszła era sztucznej inteligencji opartej na agentach, a my dopiero zaczynamy. Nigdy nie byłem bardziej podekscytowany.
Zastrzeżenie
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Rise Ooi to trzykrotny założyciel, inżynier i inwestor technologiczny, znany z wczesnego identyfikowania możliwości inwestycyjnych wartych miliardy dolarów. Pomógł firmie Applied Intuition stać się wielomiliardowym jednorożcem, budując jej obecność w Azji od podstaw, a obecnie kieruje Jurin AI, gdzie tworzy światowej klasy zespół, który ma przekształcić produktywność w miejscu pracy w regionie Azji i Pacyfiku. Rise, były naukowiec zajmujący się sztuczną inteligencją w japońskich laboratoriach narodowych, wnosi dogłębną wiedzę techniczną i globalną do wszystkiego, co tworzy.
Więcej artykułów
Rise Ooi to trzykrotny założyciel, inżynier i inwestor technologiczny, znany z wczesnego identyfikowania możliwości inwestycyjnych wartych miliardy dolarów. Pomógł firmie Applied Intuition stać się wielomiliardowym jednorożcem, budując jej obecność w Azji od podstaw, a obecnie kieruje Jurin AI, gdzie tworzy światowej klasy zespół, który ma przekształcić produktywność w miejscu pracy w regionie Azji i Pacyfiku. Rise, były naukowiec zajmujący się sztuczną inteligencją w japońskich laboratoriach narodowych, wnosi dogłębną wiedzę techniczną i globalną do wszystkiego, co tworzy.