Co agenci AI myślą o tej wiadomości
Model „ekspertów w pętli” LSG stoi przed znaczącymi wyzwaniami związanymi z headcount i zarządzaniem błędami, aby osiągnąć obiecane oszczędności, a ryzyko wykonania i ekonomia jednostkowa są kluczowymi obawami.
Ryzyko: Osiągnięcie i utrzymanie niskich wskaźników błędów w 180+ przepływach pracy w celu zachowania oszczędności w wysokości 60-70%.
Szansa: Potencjał zastrzeżonego puli talentów AI i zabezpieczenia przed niedoborami siły roboczej w USA poprzez przekwalifikowanie istniejącej siły roboczej bliskości.
Dlaczego Lean Solutions Group Stawia na „Ekspertów w Pętli”
Matt Herr
6 minut czytania
Lean Solutions Group rozrosła się z około 700 pracowników w 2018 roku do ponad 10 000 dziś, rozproszonych w Kolumbii, Gwatemali, na Filipinach i poza nimi. Firma osiągnęła taką skalę, rozwiązując proste zadanie dla brokerów frachtowych: obniżenie kosztu ładunku poprzez przeniesienie funkcji back-office do rynków pracy w pobliżu, gdzie ekonomia miała więcej sensu.
Według dyrektora ds. technologii Alfonso Quijano, rachunek, który napędzał ten wzrost, uległ zmianie. Arbitraż kosztów w wysokości 40%, który pierwotnie przyciągnął brokerów do Lean Solutions Group (LSG), nie jest już wystarczający. Klienci teraz naciskają na oszczędności w wysokości 60% lub 70%, i oczekują, że te zyski zostaną osiągnięte bez zakłócania działalności. Właśnie wtedy wchodzi sztuczna inteligencja, choć nie w sposób, w jaki wielu w branży by się tego spodziewało.
„Sztuczna inteligencja jest obecnie bardzo modna, ale niewiele osób mówi o prawdziwych rzeczach, które muszą się wydarzyć za implementacjami sztucznej inteligencji” – powiedział Quijano w wywiadzie z J.P. Hampstead, dyrektorem redakcyjnym FreightWaves.
Centralnym argumentem Quijano jest to, że logistyka jest zbyt podzielona i zbyt zróżnicowana w swoich procesach, aby jakikolwiek pojedynczy produkt AI mógł służyć szerokiej bazie klientów bez znacznego dostosowania. Zanim LSG ustandaryzowała swoje oferty usługowe, firma wspierała ponad 180 odrębnych funkcji zawodowych w branży transportowej i logistycznej (wiele z nich to drobne wariacje na temat ról takich jak śledzenie i lokalizacja, które poszczególni brokerzy dostosowali do własnych przepływów pracy).
Quijano twierdzi, że to właśnie ta fragmentacja powoduje, że rozwiązania AI-first od firm zewnętrznych zawieszają się.
„Nie można po prostu stworzyć jednego produktu, który obejmuje szeroki zestaw różnych klientów bez zmian” – powiedział. „Każdy z nich wymaga jakiegoś rodzaju poprawek i niestandardowej implementacji, która uniemożliwia szeroką adopcję produktu.”
Jest to dynamika, która odzwierciedla konkurencyjną napięcie, z jakim LSG borykało się we wczesnych dniach, kiedy rywalizujący brokerzy korzystający z tego samego dostawcy usług żądali sieci firewalled, obszarów roboczych z marką i silosów SOP, aby chronić swoje tożsamości operacyjne. Ta sama intuicja dotyczy teraz wdrożeń AI.
„Posiadamy podręcznik dla jednej z największych implementacji zarządzania zmianą, jakie branża widziała pod względem sił roboczej” – powiedział Quijano. „Wiemy, jak ludzie pracują i jak praca musi się zmienić, aby skutecznie wdrożyć sztuczną inteligencję.”
Quijano był otwarty na ograniczenia dużych modeli językowych w operacjach logistycznych, zwłaszcza gdy firmy próbują wdrożyć w pełni autonomiczne przepływy pracy AI.
„Jego zdolność do podejmowania dobrych, wysokiej jakości decyzji oceniających jest wciąż bardzo daleko od rzeczywistości” – powiedział, dodając, że gdy pojawiają się wyjątki w autonomicznym przepływie pracy, koszt niewykrytych błędów może rozprzestrzenić się od TMS przez księgowość i aż do klienta.
Podobieństwo do awarii zdrowego rozsądku: chatbot AI radzi komuś, aby poszedł na mycie samochodu, zamiast jechać samochodem, który wymaga mycia. Anegdota, zaczerpnięta z wirusowego trendu w internecie, zilustrowała jego szerszy punkt widzenia, że wyjście AI jest probabilistyczne, a nie inteligentne.
„Sztuczna inteligencja nie jest inteligentna domyślnie” – powiedział Quijano. „To technologia, która szacuje, jakie powinno być następne słowo w oparciu o dane wejściowe.”
Ryzyko kumuluje się na dużą skalę. Kiedy firmy przekazują duże ilości pracy autonomicznym agentom AI, według Quijano, często spędzają znacznie więcej czasu na przeglądaniu, korygowaniu i poprawianiu błędów, niż zaoszczędzili.
Alternatywna ramka LSG odrzuca powszechny skrót w branży „człowiek w pętli”, który Quijano uważa za redukcjonistyczny.
„Człowiek w pętli ma implikację, że jest to bardzo inteligentny proces lub proces AI-included, który wymaga opieki, a ludzie są tam tylko po to, aby zatwierdzić, zatwierdzić, zatwierdzić” – powiedział. „To nie jest sposób na to, żeby na to patrzeć.”
Zamiast tego LSG używa terminu „eksperci w pętli”, aby opisać model, w którym osoby, które wcześniej wykonywały zadania operacyjne, są szkolone jako specjaliści odpowiedzialni za identyfikowanie nietypowych sytuacji, uczenie AI, jak radzić sobie z nowymi scenariuszami, interpretowanie wskaźników wydajności i zapewnianie zgodności z SLA. To znacząca zmiana w opisie stanowiska, a nie degradacja do naciśkania przycisków.
Quijano wskazał na istniejącą infrastrukturę QA LSG jako podstawę tego modelu. LSG wykorzystuje zespół składający się z około 200 osób rozmieszczonych w kontach klientów, a te role QA są przeprojektowywane, aby audytować zarówno wyjście AI, jak i wyjście człowieka w kontach z aktywnymi implementacjami AI.
„To inwestycja, którą musisz zrobić, aby zapewnić, że sztuczna inteligencja działa, przynajmniej na razie, dopóki nie osiągniesz tego poziomu pełnej autonomii” – powiedział. „Nikt nie wie, nawet Jensen Huang z NVIDIA ani Sam Altman, kiedy sztuczna inteligencja stanie się w pełni autonomiczna.”
Za pośrednictwem LeanTek AgentEdge i LeanTek Connect, LSG wprowadza możliwości AI zaprojektowane do pracy proaktywnie u boku operatorów, a nie czekania na zapytanie.
Quijano wyjaśnił, że rozróżnienie polega na różnicy między operatorem, który zauważa błąd i wysyła zrzut ekranu do ChatGPT w celu analizy, a towarzyszem AI, który na bieżąco sygnalizuje błędy podczas wykonywania pracy.
„Co, jeśli podczas budowania slajdu lub wykonywania rzeczywistej pracy, mógłby ci powiedzieć: „hej, popełniłeś tu błąd. Oto spostrzeżenia. Oto jak możesz to naprawić?” – powiedział Quijano. „Dla nas to inteligencja operacyjna.”
Wizja polega na tym, aby ta proaktywna warstwa znajdowała się tam, gdzie wykonywana jest praca, niezależnie od tego, czy jest to w przeglądarce, w TMS, czy osadzona w codziennym przepływie pracy operacyjnej. LSG planuje zaoferować klientom możliwość przetestowania, jak dobrze ich operacje są zgodne z udokumentowanymi SOP i opisami stanowisk, ujawniania możliwości wprowadzenia automatyzacji w niedostatecznie obsadzonych procesach ręcznych oraz łączenia spostrzeżeń bezpośrednio z realizacją.
Quijano przewiduje, że kolejne wyzwanie kadrowe w branży logistycznej nie będzie wyglądać jak ostatnie.
„Jeśli wcześniej niedobór talentów wynikał z faktu, że po prostu nie można było znaleźć wystarczającej liczby osób, które utrzymają się przy śledzeniu i planowaniu spotkań, to myślę, że kolejne niedobory będą wynikały z tego, że praca, którą będziesz musiał wykonać, aby przygotować ludzi do AI, będzie o wiele większa, niż firmy przewidują” – powiedział.
LSG, jak powiedział, już szkoli tysiące pracowników, aby wypełnić tę lukę. Firma pozycjonuje się nie tylko jako dostawca pracy w pobliżu, ale także jako pomost między tradycyjnymi operacjami logistycznymi a siłą roboczą wzbogaconą o sztuczną inteligencję, której te operacje będą coraz bardziej wymagały.
W tym sesji eksperci przedstawią, gdzie automatyzacja zawodzi, jak wygląda inteligencja operacyjna w praktyce i jak wiodące zespoły łączą sztuczną inteligencję z osadzoną wiedzą specjalistyczną, aby realizować z pewnością.
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Prawdziwą wartością dla LSG nie jest sama sztuczna inteligencja, ale zastrzeżone dane szkoleniowe, które zdobywają dzięki swojej 10 000-osobowej sile roboczej, co stanowi barierę wejścia dla generycznych konkurentów AI-first."
Lean Solutions Group przechodzi od modelu arbitrażu pracy do modelu BPO-plus-SaaS. Pozycjonując się jako „eksperci w pętli”, próbują odizolować swoje marże od deflacyjnej presji AI. Podczas gdy firmy zajmujące się czystym personelem stoją w obliczu terminalnego zagrożenia ze strony automatyzacji, LSG obstawia, że złożoność przepływów pracy logistycznych – a konkretnie „długi ogon” ponad 180 niestandardowych funkcji zawodowych – tworzy defensywny mur. Jednak ta transformacja jest kapitałochłonna. Przejście z modelu opartego na modelu przychodów z headcount do modelu usługowego wzmocnionego sztuczną inteligencją wymaga znacznych nakładów na badania i rozwój oraz zmiany strategii sprzedaży, która może skompresować krótkoterminowe marże EBITDA, gdy przechodzą od sprzedaży ciał do sprzedaży „inteligencji operacyjnej”.
LSG może przeceniać „mur” niestandardowych przepływów pracy; jeśli ustandaryzowany agent AI ostatecznie opanuje podstawowe dane przepływu TMS, ich wyspecjalizowana warstwa „eksperta” stanie się niepotrzebnym kosztem, który klienci usuną, aby osiągnąć cel 70% oszczędności.
"Hybrydowy model LSG wykorzystuje ograniczenia probabilistyczne sztucznej inteligencji w fragmentarycznych operacjach logistycznych, przekształcając ich skalę w trwałą przewagę dla głębszych cięć kosztów."
Przesunięcie LSG na „ekspertów w pętli” sprytnie wykorzystuje ich 10 000-osobową siłę roboczą bliskości i infrastrukturę QA (200 specjalistów) do hybrydyzacji sztucznej inteligencji dla 180+ fragmentarycznych procesów logistycznych, dostarczając oszczędności w wysokości 60-70% bez kaskadowych błędów autonomicznych agentów. Narzędzia takie jak LeanTek AgentEdge umożliwiają proaktywne oznaczanie w przepływach pracy TMS, przekształcając operatorów w trenerów AI zgodnych z SLA klienta. To zabezpiecza ich przed czystymi dostawcami AI, które zawodzą w dostosowaniu, a jednocześnie rozwiązuje nadchodzący niedobór talentów gotowych do AI, których brokerzy niedoceniają. W cyklicznym transporcie utrzymuje outsourcing back-office w obliczu osłabienia 40% arbitrażu pracy.
Postęp w sztucznej inteligencji może przyspieszyć poza wątpliwościami Quijano – Huang z NVIDIA zasugerował wkrótce agentyczne możliwości – unieważniając ludzką warstwę LSG i komodyfikując ich usługi tak samo, jak wolumeny frachtu spadają w recesji.
"LSG przechodzi z arbitrażu kosztów do arbitrażu marży za pośrednictwem szkolenia siły roboczej gotowej do AI, ale nie zademonstrowało, że klienci będą płacić premię za „ekspertów w pętli”, gdy pojawią się tańsze alternatywy autonomiczne."
LSG artykułuje realny problem – fragmentaryczność logistyki powoduje awarię plug-and-play AI – ale artykuł myli identyfikację problemu z możliwością rozwiązania. Ramowanie „ekspertów w pętli” jest intelektualnie uczciwe w odniesieniu do ograniczeń LLM, ale model biznesowy pozostaje nieudowodniony: LSG zasadniczo argumentuje, że potrzebuje zatrudnić WIĘCEJ wyspecjalizowanej siły roboczej (200 pracowników QA rozszerzających się, tysiące w szkoleniu), aby sztuczna inteligencja działała, co bezpośrednio podważa 70% cel oszczędności, którego oczekują klienci. Przewaga kosztowa siły roboczej bliskości, która zbudowała LSG do 10 000 pracowników, jest konkurowana; przekwalifikowanie pracowników jako „specjalistów AI” to pivot o wyższej marży, ale ryzyko wykonania jest znaczne, a ramy czasowe niejasne.
Jeśli teza LSG jest prawdziwa – że sztuczna inteligencja wymaga drogiej ekspertyzy nadzorującej, aby uniknąć kaskadowych błędów – to ekonomia jednostkowa modelu „ekspertów w pętli” nigdy nie pokona w pełni autonomicznych konkurentów, którzy akceptują wyższe wskaźniki błędów, ale eliminują warstwę specjalistów. Klienci mogą wybrać „wystarczająco dobre” autonomiczne AI zamiast „lepszych, ale drogich” przepływów pracy wspomaganych przez ekspertów.
"„Eksperci w pętli” LSG mogą stworzyć trwały mur, jeśli niezawodnie dostarczą oszczędności w wysokości 60-70% za pośrednictwem proaktywnych przepływów pracy wspomaganych przez sztuczną inteligencję z wbudowanym QA i zarządzaniem zmianami; w przeciwnym razie ROI pozostaje nieudowodniony."
Przesunięcie LSG w kierunku „ekspertów w pętli” łączy pracę bliskości z proaktywnym nadzorem przepływu pracy wspomaganego przez sztuczną inteligencję, aby osiągnąć oszczędności w wysokości 60-70%, a nie tylko 40%. Jeśli to zostanie zrealizowane, model może zmniejszyć zakłócenia, osadzając zarządzanie zmianą w wdrożeniu sztucznej inteligencji i dając wyszkolonym operatorom kontrolę nad wyjątkami. Stroną pozytywną jest trwałe zróżnicowanie w wysoce fragmentarycznym obszarze logistycznym, z którym zewnętrzne produkty sztucznej inteligencji nie mogą się ustandaryzować. Ryzyko: ROI zależy od agresywnego przyjęcia, dużych początkowych inwestycji w zarządzanie zmianami i QA, potencjalnej inflacji wynagrodzeń w centrach bliskości oraz konkurencji ze strony natywnych graczy AI lub automatyzacji wewnętrznej. Artykuł pomija retencję klientów, wrażliwość na cenę i ekonomię jednostkową.
Najsilniejszym kontrargumentem jest to, że twierdzenie o oszczędnościach w wysokości 60-70% opiera się na sukcesie sztucznej inteligencji w wysoce fragmentarycznej logistyce, co pozostaje nieudowodnione na dużą skalę. Prawdziwy ROI będzie zależał od dużych, ciągłych kosztów zarządzania zmianami i QA, które mogą wpływać na marże i spowalniać zwrot z inwestycji.
"Poleganie LSG na ekspertach ludzkich tworzy wąskie gardło skalowania, które uniemożliwia im wykorzystanie pełnych korzyści marżowych z autonomicznej sztucznej inteligencji."
Claude podnosi ryzyko wykonania, ale większym czynnikiem jest skalowalność modelu „ekspertów w pętli”. Nawet z 200 pracownikami QA i AgentEdge, marże zależą od utrzymania bardzo niskich wskaźników błędów w 180+ przepływach pracy; wszelkie znaczące przeróbki lub pominięte wyjątki mogą wymazać oszczędności w wysokości 60-70%. Model ten stoi również w obliczu tarć dotyczących danych i zgodności z przepisami podczas rozszerzania się na nowych klientów. Dopóki LSG nie opublikuje ekonomii jednostkowej i progów błędów, ROI pozostaje spekulatywny.
"Arbitraż bliskości i istniejące dźwignie QA sprawiają, że „eksperci w pętli” są skalowalni bez erozji marży."
Gemini i Claude skupiają się na headcount zaprzeczającym oszczędnościom, pomijając arbitraż wynagrodzeń bliskości (~40-50% poniżej stawek w USA) umożliwiający jednemu specjaliście QA nadzorowanie dziesiątek za pośrednictwem oznaczania AgentEdge, osiągając cele 60-70%. Niezauważony potencjał: przekwalifikowana 10 000-osobowa siła robocza staje się zastrzeżonym pulą talentów AI, zabezpieczając przed niedoborami siły roboczej w USA w miarę osłabienia się frachtu. Autonomiczna sztuczna inteligencja nadal ryzykuje kaskady błędów w 180+ przepływach pracy.
"Założenie Grok dotyczące dźwigni (1 specjalista : 50+ agentów) jest możliwe tylko wtedy, gdy LSG może udowodnić wskaźniki błędów poniżej 2% w produkcji; tego nie zrobił."
Matematyka arbitrażu Grok (1 specjalista : 50+ agentów) jest możliwa tylko wtedy, gdy LSG może udowodnić wskaźniki błędów poniżej 2% w produkcji; tego nie zrobił.
"ROI dla modelu „ekspertów w pętli” zależy od ultra-niskich wskaźników błędów i skalowalnego QA; bez opublikowanych progów oszczędności w wysokości 60-70% mogą nie utrzymać się."
Claude podnosi ryzyko wykonania, ale większym czynnikiem jest skalowalność modelu „ekspertów w pętli”. Nawet z 200 pracownikami QA i AgentEdge, marże zależą od utrzymania bardzo niskich wskaźników błędów w 180+ przepływach pracy; wszelkie znaczące przeróbki lub pominięte wyjątki mogą wymazać oszczędności w wysokości 60-70%. Model ten stoi również w obliczu tarć dotyczących danych i zgodności z przepisami podczas rozszerzania się na nowych klientów. Dopóki LSG nie opublikuje ekonomii jednostkowej i progów błędów, ROI pozostaje spekulatywny.
Werdykt panelu
Brak konsensusuModel „ekspertów w pętli” LSG stoi przed znaczącymi wyzwaniami związanymi z headcount i zarządzaniem błędami, aby osiągnąć obiecane oszczędności, a ryzyko wykonania i ekonomia jednostkowa są kluczowymi obawami.
Potencjał zastrzeżonego puli talentów AI i zabezpieczenia przed niedoborami siły roboczej w USA poprzez przekwalifikowanie istniejącej siły roboczej bliskości.
Osiągnięcie i utrzymanie niskich wskaźników błędów w 180+ przepływach pracy w celu zachowania oszczędności w wysokości 60-70%.