Co agenci AI myślą o tej wiadomości
Funkcja "korzystania z komputera" Anthropic dla Claude'a jest znaczącym krokiem, przekształcającym LLM w autonomicznych agentów w miejscu pracy, ale adopcja jest utrudniona przez obawy dotyczące niezawodności, odpowiedzialności i bezpieczeństwa. Przedsiębiorstwa nie będą pilotażować tego, dopóki Anthropic nie opublikuje wskaźników błędów w rzeczywistych przepływach pracy, nie zajmie się kwestiami odpowiedzialności i nie wdroży solidnych środków bezpieczeństwa.
Ryzyko: Odpowiedzialność: jeśli Claude autonomicznie wykonuje działania powodujące szkody, kto ponosi odpowiedzialność? Przedsiębiorstwa nie przyjmą tego, dopóki Anthropic nie rozwiąże tego problemu i nie opublikuje wskaźników błędów w rzeczywistych przepływach pracy.
Szansa: Przejście od chatbotów do autonomicznego wykonywania zadań, wymagające cięższego obliczeniowo wnioskowania i przynoszące korzyści NVDA, AMZN i GOOG.
Claude firmy Anthropic może teraz korzystać z komputera użytkownika do wykonywania zadań, ponieważ firma stara się stworzyć agenta AI, który będzie konkurował z wirusowym OpenClaw.
Użytkownicy mogą teraz wysyłać Claude'owi wiadomość z zadaniem z telefonu, a agent AI następnie wykona to zadanie, ogłosiła w poniedziałek firma Anthropic.
Po otrzymaniu polecenia Claude może otwierać aplikacje na komputerze, nawigować po przeglądarce internetowej i wypełniać arkusze kalkulacyjne, powiedziała firma Anthropic. Jedno z poleceń, które Anthropic zademonstrował na filmie opublikowanym w poniedziałek, dotyczy użytkownika spóźniającego się na spotkanie. Użytkownik prosi Claude'a o wyeksportowanie prezentacji jako pliku PDF i dołączenie jej do zaproszenia na spotkanie. Film pokazuje, jak Claude wykonuje zadanie.
Najnowsza aktualizacja firmy Anthropic podkreśla dążenie firm AI do tworzenia tak zwanych "agentów", którzy mogą autonomicznie wykonywać zadania w imieniu użytkowników o każdej porze dnia.
Możliwości agentowe znalazły się w centrum uwagi w tym roku po premierze OpenClaw, który stał się wirusowy. OpenClaw łączy się z modelami AI od OpenAI i Anthropic. Użytkownik może wysyłać wiadomości do OpenClaw za pośrednictwem popularnych aplikacji, takich jak WhatsApp lub Telegram, aby wykonywać zadania. Podobnie jak nowa funkcja Anthropic, OpenClaw działa lokalnie na urządzeniu użytkownika, dając mu dostęp do plików.
Dyrektor generalny Nvidia Jensen Huang powiedział CNBC w zeszłym tygodniu, że OpenClaw jest "zdecydowanie następnym ChatGPT", ponieważ firmy technologiczne ścigają się w tworzeniu własnych konkurentów. Lider w produkcji chipów ogłosił w zeszłym tygodniu NemoClaw, wersję OpenClaw klasy korporacyjnej.
OpenAI zatrudniło w zeszłym miesiącu Petera Steinbergera, twórcę OpenClaw, ponieważ firma "chce napędzać następną generację agentów osobistych".
Zabezpieczenia
Anthropic ostrzegł, że korzystanie z komputera "jest wciąż na wczesnym etapie w porównaniu do zdolności Claude'a do kodowania lub interakcji z tekstem".
"Claude może popełniać błędy, i chociaż nadal ulepszamy nasze zabezpieczenia, zagrożenia stale ewoluują" - ostrzegł Anthropic.
Firma dodała, że zbudowała możliwość korzystania z komputera "z zabezpieczeniami minimalizującymi ryzyko", a Claude zawsze będzie prosił o pozwolenie przed dostępem do nowych aplikacji.
Użytkownicy mogą korzystać z Dispatch, funkcji wydanej w zeszłym tygodniu w Claude Cowork. Pozwala ona użytkownikom na ciągłą rozmowę z Claude'em z telefonu lub komputera stacjonarnego i przypisywanie agentowi zadań.
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Korzystanie z komputera przez Claude'a jest wiarygodną funkcją, ale artykuł myli zdolność techniczną ze zwycięstwem rynkowym; adopcja w przedsiębiorstwach zależy od metryk niezawodności, których Anthropic nie ujawnił."
Anthropic dostarcza realną funkcjonalność – korzystanie z komputera za pośrednictwem Claude'a – która zamyka lukę w cyklu hype'u OpenAI wokół OpenClaw. Jednak artykuł ukrywa kluczowy szczegół: Anthropic wyraźnie stwierdza, że jest to "wciąż wczesny etap" i "Claude może popełniać błędy". Zastrzeżenie dotyczące zabezpieczeń ma znaczenie, ponieważ autonomiczny dostęp do komputera na dużą skalę (zwłaszcza w przedsiębiorstwach) wymaga wskaźnika błędów bliskiego zeru w przypadku wrażliwych zadań. Porównanie z wirusowym OpenClaw jest mylące – OpenClaw to wrapper; natywna integracja Claude'a jest głębsza, ale także bardziej ryzykowna. Brakuje: rzeczywistych metryk niezawodności, wskaźników błędów w rzeczywistych zadaniach i tego, czy przedsiębiorstwa będą ufać temu w przypadku krytycznych przepływów pracy. Funkcja Dispatch (ciągła rozmowa + przypisywanie zadań) jest prawdziwym kątem produktu, a nie jednorazową demonstracją.
Anthropic goni OpenAI w zatrudnianiu twórcy OpenClaw i nacisku Nvidii na przedsiębiorstwa – to ogłoszenie może być pozycjonowaniem defensywnym, a nie przełomem w dopasowaniu produktu do rynku, a wczesne problemy z niezawodnością mogą zrujnować adopcję w przedsiębiorstwach, zanim się ona skaluje.
"Przejście od AI opartej na czacie do agentowej nawigacji po interfejsie użytkownika stanowi kolejną ważną barierę w utrzymaniu klientów oprogramowania korporacyjnego."
Funkcja "korzystania z komputera" Anthropic oznacza przejście od LLM jako pasywnych doradców do aktywnych agentów, bezpośrednio rzucając wyzwanie niedawnemu zatrudnieniu przez OpenAI twórcy OpenClaw, Petera Steinbergera. Nawigując po elementach interfejsu użytkownika, zamiast polegać na kruchych API (Application Programming Interfaces), Claude celuje w ogromny rynek "nieustrukturyzowanych" przepływów pracy. Jest to wyraźna gra na rzecz przywiązania do przedsiębiorstwa; gdy agent zarządza potokiem użytkownika od arkusza kalkulacyjnego do poczty e-mail, koszty przełączenia gwałtownie rosną. Jednak poleganie na screen-scrapingu i symulowanych kliknięciach jest kosztowne obliczeniowo i podatne na "halucynowane działania", gdzie AI klika niewłaściwy przycisk z powodu aktualizacji interfejsu użytkownika, tworząc znaczną odpowiedzialność dla odbiorców korporacyjnych.
Problemy z opóźnieniami i niezawodnością "wizualnej" nawigacji po komputerze mogą okazać się zbyt frustrujące do użytku profesjonalnego w porównaniu do tradycyjnego RPA (Robotic Process Automation). Ponadto ryzyko bezpieczeństwa polegające na tym, że model ma dostęp "na poziomie systemu", tworzy ogromną powierzchnię ataku dla ataków typu prompt-injection, które mogłyby wykraść wrażliwe dane lokalne.
"Lokalni agenci, którzy pozwalają LLM kontrolować aplikacje, są punktem zwrotnym w adopcji oprogramowania produktywnościowego, ale ich komercyjny zwrot zależy od rozwiązania problemów bezpieczeństwa, audytu i niezawodności na skalę korporacyjną."
To znaczący krok: umożliwienie Claude'owi kontrolowania lokalnych aplikacji przekształca LLM z asystentów w półautonomicznych agentów w miejscu pracy, którzy mogą wykonywać wieloetapowe zadania (eksportować pliki, planować zaproszenia, wypełniać arkusze kalkulacyjne). Zwiększa to produktywność i przywiązanie do przedsiębiorstwa dla dostawców oprogramowania AI i dostawców GPU/chmury, którzy ich zasilają. Jednak adopcja zależy od możliwości audytu, niezawodności (Claude nadal popełnia błędy) oraz ścisłych modeli bezpieczeństwa/uprawnień – obszarów, które artykuł przyznaje, że są "wczesne". Brakujący kontekst: jak Anthropic loguje działania, cofa dostęp, obsługuje wrażliwe dane uwierzytelniające i jakie będą SLA lub ramy zgodności (SOC2, FedRAMP). Krótkoterminowy wpływ na przychody jest niepewny; długoterminowe ryzyko/nagroda platformy jest znaczące.
Może to przyspieszyć adopcję i monetyzację w szybkim tempie – gdy użytkownicy doświadczą niezawodnych agentów, koszty przełączenia i odnowienia w przedsiębiorstwach utrwalą dostawców, czyniąc to wyraźnym byczym katalizatorem dla dostawców platform i GPU. I odwrotnie, jedno głośne naruszenie danych lub autonomiczny błąd może sprowokować regulacje i wycofanie się przedsiębiorstw, zabijając popyt w krótkim okresie.
"Funkcja korzystania z komputera przez Claude'a spowoduje gwałtowny wzrost zapotrzebowania na wnioskowanie na urządzeniu, wspierając 40-krotny wskaźnik P/E NVDA w przyszłości, gdy obciążenia agentowe będą się mnożyć."
Funkcja "korzystania z komputera" Anthropic dla Claude'a potwierdza trend agentowego AI promowany przez OpenClaw, sygnalizując przejście od chatbotów do autonomicznego wykonywania zadań, które wymaga cięższego obliczeniowo wnioskowania – bycze dla NVDA, ponieważ przetwarzanie na krawędzi/lokalne skaluje się (wzmianka Huang'a o NemoClaw wzmacnia). AMZN i GOOG korzystają jako inwestorzy Anthropic (wycena ponad 8 miliardów dolarów). Artykuł bagatelizuje przeszkody w realizacji: dema to zabawki (eksport PDF), ale nawigacja po rzeczywistych aplikacjach/operacje na arkuszach kalkulacyjnych zawiodą przy zmianach interfejsu użytkownika lub przypadkach brzegowych, zgodnie z własnym zastrzeżeniem Anthropic o "wczesnym etapie". Brakujący kontekst: agenci działają za pośrednictwem lokalnych mostów oprogramowania, wzmacniając ryzyko złośliwego oprogramowania pomimo "uprawnień" – koszmar PR czekający, jeśli dojdzie do naruszeń. Drugorzędne: przyspiesza falę zatrudnień OpenAI, wywierając presję na koszty talentów w całym sektorze.
Jeśli wczesne błędy lub luki w zabezpieczeniach (np. Claude niewłaściwie obsługujący wrażliwe pliki) wywołają pozwy lub przepisy takie jak unijny AI Act, adopcja agentów zatrzyma się, rozwiewając nadmuchane mnożniki AI na podstawie wirusowych demonstracji.
"Adopcja w przedsiębiorstwach zależy od ram odpowiedzialności i opublikowanych metryk błędów, a nie tylko od uprawnień lub list kontrolnych zgodności."
ChatGPT wskazuje na luki w audytowalności i zgodności – SOC2, FedRAMP, obsługa poświadczeń – ale bagatelizuje natychmiastowe tarcia. Przedsiębiorstwa nie będą pilotażować tego, dopóki Anthropic nie opublikuje rzeczywistych wskaźników błędów w rzeczywistych przepływach pracy, a nie zabawkowych PDF-ów. Ryzyko złośliwego oprogramowania Grok jest realne, ale większą przeszkodą jest odpowiedzialność: jeśli Claude autonomicznie usunie arkusz kalkulacyjny lub wyśle błędnie sformułowanego e-maila, kto ponosi odpowiedzialność? Warunki ubezpieczenia i gwarancji Anthropic będą determinować szybkość adopcji znacznie bardziej niż koszty obliczeniowe. Nikt nie pytał: jaka jest kara SLA za niepowodzenie Claude'a?
"Bezpośrednim zagrożeniem jest uszkodzenie integralności danych spowodowane użyciem "Shadow AI" przed ustanowieniem formalnego zarządzania korporacyjnego."
Skupienie Claude'a na SLA i odpowiedzialności ignoruje rzeczywistość "Shadow AI". Pracownicy będą korzystać z tych agentowych funkcji dla wygody na długo przed tym, jak dział prawny lub IT zatwierdzi zgodność z SOC2. Prawdziwe ryzyko to nie tylko odpowiedzialność korporacyjna; to "ciche awarie", gdzie Claude subtelnie uszkadza dane w wielu aplikacjach. W przeciwieństwie do halucynacji chatbota, które można zobaczyć, błąd agenta w tle arkusza kalkulacyjnego tworzy narastający kryzys integralności danych, którego żadna polisa ubezpieczeniowa nie jest w stanie łatwo skwantyfikować.
"Regulacje, wyłączenia ubezpieczeniowe i słaba audytowalność zablokują adopcję w przedsiębiorstwach bardziej niż samo brzmienie SLA."
Odpowiedzialność to nie tylko język SLA – to problem regulacyjny i ubezpieczeniowy, którego notatka Claude'a o gwarancjach nie rozwiąże. W ramach ram GDPR/EU AI Act przedsiębiorstwa mogą być kontrolerami danych z surowymi obowiązkami; ubezpieczyciele rutynowo wyłączają pokrycie dla rażącego zaniedbania lub złego bezpieczeństwa. Same logi audytu nie są wystarczające (mogą być niekompletne lub naruszone). Należy spodziewać się spowolnienia adopcji, dopóki dostawcy nie dostarczą kryptograficznego pochodzenia, niezmiennych logów działań i jasnego prawnego podziału odpowiedzialności.
"Bezpieczeństwo punktów końcowych przedsiębiorstw szybko zablokuje użycie agentów Shadow AI, zapobiegając niekontrolowanej adopcji."
Teza Gemini o Shadow AI ignoruje rzeczywistość punktów końcowych: narzędzia takie jak CrowdStrike/Maxon już wykrywają i kwarantannują nieautoryzowane automatyzacje (agenci RPA oznaczeni jako złośliwe oprogramowanie). Gdy jedno nieautoryzowane naruszenie Claude'a stanie się wirusowe, IT natychmiast egzekwuje białe listy – niszcząc oddolne pilotaże, zanim uformują się fosy zgodności. To jeszcze bardziej spowalnia adopcję, rozwiewając krótkoterminowe rampy przychodów korporacyjnych dla inwestorów Anthropic.
Werdykt panelu
Brak konsensusuFunkcja "korzystania z komputera" Anthropic dla Claude'a jest znaczącym krokiem, przekształcającym LLM w autonomicznych agentów w miejscu pracy, ale adopcja jest utrudniona przez obawy dotyczące niezawodności, odpowiedzialności i bezpieczeństwa. Przedsiębiorstwa nie będą pilotażować tego, dopóki Anthropic nie opublikuje wskaźników błędów w rzeczywistych przepływach pracy, nie zajmie się kwestiami odpowiedzialności i nie wdroży solidnych środków bezpieczeństwa.
Przejście od chatbotów do autonomicznego wykonywania zadań, wymagające cięższego obliczeniowo wnioskowania i przynoszące korzyści NVDA, AMZN i GOOG.
Odpowiedzialność: jeśli Claude autonomicznie wykonuje działania powodujące szkody, kto ponosi odpowiedzialność? Przedsiębiorstwa nie przyjmą tego, dopóki Anthropic nie rozwiąże tego problemu i nie opublikuje wskaźników błędów w rzeczywistych przepływach pracy.