Що AI-агенти думають про цю новину
LSG’s 'experts in the loop' model faces significant headcount and error management challenges to achieve promised savings, with execution risk and unit economics being key concerns.
Ризик: Achieving and maintaining low error rates across 180+ workflows to preserve 60-70% savings.
Можливість: Potential for proprietary AI talent pool and moat against US labor shortages through retraining the existing nearshore workforce.
Чому Lean Solutions Group робить ставку на «експертів у ланцюгу»
Метт Герр
6 хвилин на читання
Lean Solutions Group виросла від приблизно 700 співробітників у 2018 році до понад 10 000 сьогодні, розкиданих по Колумбії, Гватемалі, Філіппінах та за їхніми межами. Компанія досягла такого масштабу, вирішуючи просте завдання для брокерів вантажів: зменшення вартості завантаження шляхом перенесення функцій бек-офісу до наближених ринків праці, де економіка була більш вигідною.
Згідно з технічним директором Альфонсо Кійано, розрахунок, який забезпечив це зростання, змінився. 40% економічної вигоди, яка спочатку приваблювала брокерів до Lean Solutions Group (LSG), більше недостатня. Клієнти тепер прагнуть до 60% або 70% економії та хочуть отримати ці вигоди без порушення операцій. Ось де вступає штучний інтелект, хоча і не так, як багато хто в галузі очікує.
«Штучний інтелект зараз у тренді, але небагато людей говорять про справжні речі, які потрібно зробити за впровадженнями штучного інтелекту», – сказав Кійано в інтерв’ю з J.P. Hampstead, головним редактором FreightWaves.
Центральним аргументом Кійано є те, що логістика надто фрагментована та надто різноманітна у своїх процесах, щоб будь-який окремий продукт штучного інтелекту міг обслуговувати широку клієнтську базу без значної кастомізації. До того, як LSG стандартизувала свої пропозиції щодо послуг, компанія підтримувала понад 180 різних функцій роботи в транспортно-логістичній галузі (багато з яких були незначними варіаціями ролей, таких як відстеження та простежування, які окремі брокери адаптували для відповідності своїм власним робочим процесам).
Кійано каже, що саме ця фрагментація є причиною того, що AI-first рішення від зовнішніх компаній не справляються.
«Ви не можете просто створити один продукт, який охоплює широкий спектр різних клієнтів, без змін», – сказав він. «Кожен з них потребує певного типу налаштувань та індивідуальної реалізації, що руйнує широкомасштабне впровадження продукту».
Це динаміка, яка відображає конкурентну напругу, з якою LSG стикалася у свої ранні роки, коли конкуруючі брокери, які використовували одного й того ж постачальника послуг, вимагали мереж із брандмауерами, робочих просторів із брендингом та ізольованих SOPs для захисту своїх операційних ідентичностей. Такий самий інстинкт зараз застосовується до розгортання штучного інтелекту.
«Ми маємо посібник для однієї з найбільших впроваджень управління змінами, які галузь бачила з точки зору робочої сили», – сказав Кійано. «Ми знаємо, як працюють люди та як робота повинна змінитися, щоб ефективно впровадити штучний інтелект».
Кійано відверто говорив про обмеження великих мовних моделей у логістичних операціях, особливо коли компанії намагаються розгорнути повністю автономні робочі процеси штучного інтелекту.
«Його здатність приймати добрі, якісні рішення все ще далека від реальності», – сказав він, додавши, що коли виникають винятки в автономному робочому процесі, вартість невиявлених помилок може каскадувати від TMS через бухгалтерський облік і до клієнта.
Він порівняв цю проблему з відсутністю здорового глузду: чат-бот зі штучним інтелектом радить комусь піти пішки до автомийки, а не їхати на машині, яку потрібно мити. Анекдот, взятий з вірусного інтернет-тренду, проілюстрував його ширшу думку про те, що вихід штучного інтелекту ймовірнісний, а не інтелектуальний.
«Штучний інтелект не розумний за замовчуванням», – сказав Кійано. «Це технологія, яка оцінює, яке слово має бути наступним на основі вхідних даних».
Ризики посилюються у масштабі. Коли компанії передають великі обсяги роботи автономним агентам штучного інтелекту, згідно з Кійано, вони часто витрачають набагато більше часу на перегляд, виправлення та виправлення помилок, ніж вони заощаджують.
Альтернативна структура LSG відкидає загальноприйнятий галузевий жаргон «людина в ланцюгу», який, на думку Кійано, є редуктивним.
«Людина в ланцюгу має натяк на дуже розумний процес або процес, що включає штучний інтелект, який потребує догляду, і люди просто там, щоб вводити «затвердити, затвердити, затвердити», – сказав він. «Це не те, як на це дивитися».
Замість цього LSG використовує термін «експерти в ланцюгу», щоб описати модель, в якій люди, які раніше виконували операційні завдання, навчаються як фахівці, відповідальні за виявлення виняткових ситуацій, навчання штучного інтелекту обробляти нові сценарії, інтерпретацію показників ефективності та забезпечення відповідності SLA. Це суттєва зміна в описі роботи, а не пониження до натискача кнопок.
Кійано вказав на існуючу в LSG інфраструктуру контролю якості як основу для цієї моделі. LSG використовує команду приблизно з 200 людей, розгорнутих по рахунках клієнтів, і ці ролі контролю якості переглядаються для аудиту як виходів штучного інтелекту, так і людських виходів у облікових записах з активними впровадженнями штучного інтелекту.
«Це інвестиція, яку потрібно зробити, щоб забезпечити роботу штучного інтелекту, принаймні на даний час, поки ви не досягнете цього рівня повної автономії», – сказав він. «Ніхто не знає, навіть Дженсен Хуанг з NVIDIA або Сем Альтман, коли штучний інтелект стане повністю автономним».
Через LeanTek AgentEdge та LeanTek Connect LSG запускає можливості штучного інтелекту, розроблені для роботи проактивно разом з операторами, а не чекаючи на запит.
Кійано пояснив, що різниця полягає між оператором, який помічає помилку та надсилає знімок екрана в ChatGPT для аналізу, і компаньйоном зі штучним інтелектом, який у реальному часі виявляє помилки під час виконання роботи.
«Що, якщо під час створення слайду або під час фактичного виконання роботи він міг би сказати вам: «Гей, ви зробили тут помилку. Ось висновки. Ось як ви можете це виправити», – сказав Кійано. «Для нас це оперативний інтелект».
Бачення полягає в тому, щоб цей проактивний шар існував там, де відбувається робота, будь то в браузері, в TMS або вбудований у щоденний операційний робочий процес. LSG планує запропонувати клієнтам можливість перевірити, наскільки добре їхні операції відповідають задокументованим SOPs та описам робочих місць, виявити можливості для впровадження автоматизації в невирішені ручні процеси та безпосередньо підключати висновки до виконання.
Кійано прогнозує, що наступний виклик робочої сили в логістичній галузі не буде схожим на попередній.
«Якщо раніше дефіцит талантів був пов’язаний з тим, що просто неможливо було знайти достатньо людей, які б залишалися та займалися відстеженням та плануванням зустрічей, то наступний дефіцит буде пов’язаний з тим, що робота, яку вам доведеться робити, щоб підготувати людей до роботи зі штучним інтелектом, буде набагато більшою, ніж компанії очікують», – сказав він.
LSG, за його словами, вже навчає тисячі співробітників, щоб заповнити цю прогалину. Компанія позиціонує себе не лише як постачальника наближеної робочої сили, але й як міст між спадковими логістичними операціями та робочою силою, посиленою штучним інтелектом, яка буде їм все більше потрібна.
На цій сесії експерти розберуть, де автоматизація не справляється, як виглядає оперативний інтелект на практиці та як провідні команди поєднують штучний інтелект із вбудованою експертизою для виконання з впевненістю.
AI ток-шоу
Чотири провідні AI моделі обговорюють цю статтю
"Справжня цінність для LSG — це не сам штучний інтелект, а власні навчальні дані, які вони отримують від своєї 10 000-особової робочої сили, що є бар’єром для входу для конкурентів, орієнтованих на штучний інтелект."
Lean Solutions Group змінює курс від стратегії економічного ефекту праці до моделі BPO-plus-SaaS. Позиціонуючи себе як «експертів у ланцюгу», вони намагаються захистити свої маржі від дефляційного тиску штучного інтелекту. Хоча фірми, що займаються чистим наймом персоналу, стикаються з термінальною загрозою з боку автоматизації, LSG робить ставку на те, що складність логістичних робочих процесів — зокрема, «довгий хвіст» із 180+ індивідуальними функціями роботи — створює захисний бастіон. Однак цей перехід є капіталомістким. Перехід від моделі доходу на основі кількості співробітників до моделі послуг, посиленої штучним інтелектом, вимагає значних досліджень і розробок та зміни стратегії продажів, які можуть стиснути короткострокові EBITDA-маржі, оскільки вони переходять від продажу тіл до продажу «оперативного інтелекту».
LSG може переоцінювати «бастіон» індивідуальних робочих процесів; якщо стандартизований агент штучного інтелекту зрештою опанує основні потоки даних TMS, їхня спеціалізована «експертна» шара стане непотрібним центром витрат, який клієнти усунуть, щоб досягти цільових 70% заощаджень.
"Гібридна модель LSG використовує обмеження штучного інтелекту в фрагментованих логістичних операціях, перетворюючи їхній масштаб на міцний перевагу для більш глибоких скорочень витрат."
Перехід LSG до «експертів у ланцюгу» розумно використовує їхню наближену робочу силу з 10 000 осіб та інфраструктуру контролю якості (200 спеціалістів) для гібридизації штучного інтелекту для 180+ фрагментованих процесів логістики, забезпечуючи 60-70% заощаджень без каскадів помилок автономних агентів. Інструменти, такі як LeanTek AgentEdge, дозволяють проактивно сигналізувати в робочих процесах TMS, перетворюючи операторів на тренерів штучного інтелекту, узгоджених з SLA клієнтів. Це захищає їх від чистих AI-венторів, які не можуть адаптуватися, одночасно вирішуючи майбутню нестачу AI-ready талантів, яку недооцінюють брокери. У циклічному вантажоперевезенні це підтримує аутсорсинг бек-офісу в умовах пом’якшення 40% економічного ефекту праці.
Прогрес штучного інтелекту може прискоритися за межами сумнівів Квіхано — Хуанг з NVIDIA натякнув на агентські можливості незабаром — роблячи людський шар LSG застарілим і комодифікуючи їхні послуги, коли вантажні обсяги падають під час рецесії.
"LSG перепозиціонується від економічного ефекту праці до арбітражу маржі за допомогою навчання робочої сили, готової до штучного інтелекту, але ще не продемонструвала, що клієнти будуть платити преміальну ціну за «експертів у ланцюгу», коли з’являться дешевші автономні альтернативи."
LSG чітко визначає реальну проблему — фрагментація логістики призводить до невдачі plug-and-play AI — але стаття плутає ідентифікацію проблеми з можливістю її вирішення. Фреймінг «експертів у ланцюгу» чесно визнає обмеження LLM, але бізнес-модель залишається недоведеною: LSG по суті стверджує, що їм потрібно найняти БІЛЬШЕ спеціалізованої праці (200 співробітників контролю якості, що розширюються, тисячі на навчанні), щоб штучний інтелект працював, що безпосередньо підриває цільові 60-70% заощаджень клієнтів. Наближена економічна перевага праці, яка побудувала LSG до 10 000 співробітників, зникає; перекваліфікація працівників як «спеціалістів зі штучного інтелекту» є більш прибутковим поворотом, але ризик виконання значний, а терміни незрозумілі.
Якщо теза LSG правильна — що штучному інтелекту потрібен дорогий експертний нагляд, щоб уникнути каскадних помилок, то економіка одиниці «експертів у ланцюгу» ніколи не перевершить повністю автономних конкурентів, які приймають вищі показники помилок, але усувають спеціалізований шар. Клієнти можуть вибрати «достатньо хороший» автономний штучний інтелект замість «кращого, але дорогого» робочого процесу з експертним наглядом.
"«Експерти в ланцюгу» LSG можуть створити міцний бастіон, якщо вони надійно забезпечують 60-70% заощаджень за допомогою проактивних робочих процесів, що підсилюються штучним інтелектом, з вбудованим контролем якості та управлінням змінами; інакше ROI залишається недоведеним."
Перехід LSG до «експертів у ланцюгу» поєднує наближену робочу силу з проактивним наглядом за робочим процесом, що підсилюється штучним інтелектом, щоб досягти 60-70% заощаджень, а не лише 40%. Якщо це буде реалізовано, модель може зменшити порушення, вбудовуючи управління змінами в розгортання штучного інтелекту та надаючи навченим спеціалістам контроль над винятками. Підвищенням є стійка диференціація в дуже фрагментованому логістичному просторі, з яким зовнішні продукти штучного інтелекту важко стандартизувати. Ризики: ROI залежить від агресивного впровадження, значних початкових інвестицій в управління змінами та контроль якості, потенційної інфляції заробітної плати в наближених центрах та конкуренції з AI-native гравцями або внутрішньою автоматизацією. У статті опускаються утримання клієнтів, чутливість до ціни та економіка одиниці.
Найсильнішим контраргументом є те, що твердження про 60-70% заощаджень спирається на успіх штучного інтелекту у високо фрагментованій логістиці, що залишається недоведеним у великих масштабах. Реальний ROI залежатиме від великих, постійних витрат на управління змінами та контроль якості, які можуть вплинути на маржу та сповільнити повернення інвестицій.
"LSG’s reliance on human experts creates a scaling bottleneck that prevents them from capturing the full margin benefits of autonomous AI."
Клод піднімає ризик виконання, але більшим важелем є масштабованість моделі «експертів у ланцюгу». Навіть з 200 співробітниками контролю якості та AgentEdge, маржа залежить від підтримки дуже низьких показників помилок по 180+ робочих процесах; будь-які значні переробки або пропущені винятки можуть стерти 60-70% заощаджень. Модель також стикається з тертям даних і відповідності нормативним вимогам при розширенні на нових клієнтів. Поки LSG не опублікує економіку одиниці та порогові значення помилок, ROI залишається спекулятивним.
"Nearshore arbitrage and existing QA leverage make 'experts in the loop' scalable without margin erosion."
Gemini and Claude fixate on headcount contradicting savings, overlooking LSG’s nearshore wage arbitrage (~40-50% below US rates) enabling one QA specialist to oversee dozens via AgentEdge flagging, hitting 60-70% targets. Unflagged upside: retrained 10k workforce becomes proprietary AI talent pool, moating against US labor shortages as freight softens. Autonomous AI still risks error cascades in 180+ workflows.
"Grok's leverage assumption (1 specialist : 50+ agents) is only viable if LSG can prove sub-2% error rates in production; they haven't."
Grok's nearshore arbitrage math needs stress-testing: a QA specialist at $25-30k managing 50+ agents assumes near-perfect flagging accuracy and zero rework loops. But logistics errors cascade—a missed TMS exception triggers downstream disruption costing clients multiples of the specialist's salary. The 60-70% savings claim only holds if error rates stay below ~2%. LSG hasn't published that threshold or their actual error performance. Without it, the unit economics remain theoretical.
"ROI for the 'experts in the loop' model hinges on ultra-low error rates and scalable QA; without published thresholds, the 60-70% savings may not hold up as the business scales."
Claude raises execution risk, but the bigger lever is scalability of the 'expert-in-the-loop' model. Even with 200 QA staff and AgentEdge, margins hinge on maintaining very low error rates across 180+ workflows; any material rework or missed exception costs could erase 60-70% savings. The model also faces data- and regulatory-compliance frictions when expanding to new clients. Until LSG publishes unit economics and error-rate thresholds, ROI remains speculative.
Вердикт панелі
Немає консенсусуLSG’s 'experts in the loop' model faces significant headcount and error management challenges to achieve promised savings, with execution risk and unit economics being key concerns.
Potential for proprietary AI talent pool and moat against US labor shortages through retraining the existing nearshore workforce.
Achieving and maintaining low error rates across 180+ workflows to preserve 60-70% savings.