Các tác nhân AI nghĩ gì về tin tức này
Ban hội thẩm chia rẽ về kết quả quyết định của Thẩm phán Lin, với một số người dự đoán lệnh cấm sơ bộ (Claude, Grok) và những người khác dự đoán lập luận an ninh quốc gia của chính phủ sẽ thắng thế (Gemini). Vấn đề chính là tỷ lệ doanh thu của Anthropic từ các hợp đồng liên bang, điều này có thể làm sụp đổ giá trị thực tế của lệnh cấm nếu nó dưới 5%.
Rủi ro: Hiệu ứng "thuốc độc" của lệnh cấm kéo dài kích hoạt các điều khoản kiểu "nhân sự chủ chốt" trong nợ liên doanh tư nhân và làm nản lòng các khách hàng doanh nghiệp (Gemini).
Cơ hội: Thương hiệu ưu tiên an toàn của Anthropic có khả năng được xác nhận, định giá lại các khoản phí bảo hiểm AI đạo đức cao hơn (ví dụ: Grok).
Thẩm phán San Francisco Bày Tỏ Quan Ngại Về Lệnh Cấm Của Bộ Chiến Tranh Đối Với Anthropic
Được biên soạn bởi Matthew Vadum qua The Epoch Times (nhấn mạnh của chúng tôi),
Một thẩm phán liên bang vào ngày 24 tháng 3 dường như đã chấp nhận yêu cầu của Anthropic về việc tạm thời chặn Bộ Chiến Tranh tiếp tục chỉ định công ty AI là rủi ro chuỗi cung ứng.
Việc chỉ định, theo luật liên bang được thiết kế để bảo vệ các hệ thống quân sự khỏi sự phá hoại từ nước ngoài, hoạt động như một danh sách đen, ngăn cản công ty kinh doanh với chính phủ liên bang và các nhà thầu của họ.
Nếu lệnh cấm được chấp thuận, công ty sẽ có thể tiếp tục kinh doanh với các cơ quan liên bang và các nhà thầu của họ trong khi vụ kiện tiến hành tại tòa án.
Nhà phát triển AI đã kiện bộ vào quận Bắc California của tòa án liên bang vào ngày 9 tháng 3, sau khi chính phủ liên bang đưa ra chỉ định, viện dẫn các mối quan ngại về an ninh quốc gia của công ty. Anthropic cũng đã đệ trình một vụ kiện riêng vào cùng ngày về chỉ định tại Tòa phúc thẩm Hoa Kỳ cho Vòng D.C.
Tổng thống Donald Trump và Bộ trưởng Chiến tranh Pete Hegseth trước đây đã công bố lệnh tẩy chay liên bang đối với Anthropic, chỉ đạo các cơ quan liên bang, nhà thầu và nhà cung cấp chấm dứt quan hệ với công ty.
Trên mạng xã hội, Trump cho biết Anthropic đang cố gắng "ép buộc" chính phủ liên bang và các quan chức được bầu bởi người dân Mỹ bằng cách quyết định chính sách quân sự của họ.
"CHÚNG TA sẽ quyết định số phận của Đất nước chúng ta—KHÔNG phải một số công ty AI Cực Tả, mất kiểm soát do những người không hiểu gì về Thế giới thực điều hành," Trump nói trong một bài đăng Truth Social ngày 27 tháng 2.
Các vụ kiện xảy ra sau khi Anthropic cho biết họ từ chối thay đổi chính sách người dùng cho sản phẩm AI của mình, Claude, để loại bỏ các biện pháp an toàn ngăn chặn việc sử dụng nó cho giám sát hàng loạt và vũ khí hoàn toàn tự động.
Bộ Chiến Tranh cho biết họ không có ý định sử dụng Claude cho những mục đích đó.
Bộ cho biết vào ngày 5 tháng 3 rằng vấn đề nằm ở việc đảm bảo quân đội có thể sử dụng công nghệ cho "tất cả các mục đích hợp pháp."
"Quân đội sẽ không cho phép một nhà cung cấp tự đặt mình vào chuỗi chỉ huy bằng cách hạn chế việc sử dụng hợp pháp một khả năng quan trọng và đặt các chiến binh của chúng ta vào rủi ro," Lầu Năm Góc cho biết trong một tuyên bố được cung cấp cho nhiều hãng tin.
Công nghệ của Anthropic được tích hợp vào các nền tảng quân sự mật, bao gồm cả những nền tảng đang được sử dụng trong các hoạt động hiện tại của Hoa Kỳ chống lại Cộng hòa Hồi giáo Iran trong Chiến dịch Epic Fury.
Công ty cáo buộc rằng việc chỉ định rủi ro chuỗi cung ứng cấu thành sự trả đũa bất hợp pháp và họ có thể mất hàng tỷ đô la nếu lệnh tẩy chay liên bang đối với các sản phẩm của họ tiếp tục. Việc chỉ định yêu cầu các nhà thầu quốc phòng chứng nhận rằng họ không sử dụng Claude khi làm việc với bộ.
Tại một phiên điều trần về lệnh cấm sơ bộ ở San Francisco vào ngày 24 tháng 3, Thẩm phán quận Hoa Kỳ Rita F. Lin (D) cho biết các hành động của bộ đối với công ty là "đáng lo ngại" vì chúng dường như không "phù hợp với các mối quan ngại về an ninh quốc gia đã nêu," và giống như "một nỗ lực nhằm làm tê liệt Anthropic."
Nếu bộ lo ngại "về tính toàn vẹn của chuỗi chỉ huy hoạt động, [nó] có thể chỉ cần ngừng sử dụng Claude," mà không cấm Anthropic "có bất kỳ hợp đồng chính phủ nào khác," bà nói.
Bà nói rằng việc chỉ định rủi ro chuỗi cung ứng áp dụng cho "các đối thủ của chính phủ Hoa Kỳ có thể phá hoại các hệ thống công nghệ của nó." Bà nói rằng các chỉ định như vậy thường áp dụng cho tình báo nước ngoài, khủng bố và các tác nhân thù địch khác.
Lin bày tỏ lo ngại rằng chính phủ có thể đang cố gắng trừng phạt Anthropic vì "chỉ trích lập trường hợp đồng của chính phủ trên báo chí," và nói thêm rằng sự trừng phạt như vậy sẽ vi phạm Tu chính án thứ nhất của Hiến pháp.
Cũng tại phiên điều trần, luật sư của Anthropic, Mike Mongan, cho biết việc chỉ định là lần đầu tiên một công ty Hoa Kỳ bị chỉ định là rủi ro chuỗi cung ứng.
"Tất cả những gì chúng tôi bị buộc tội trong thủ tục này đều hoàn toàn minh bạch," Mongan nói, và thêm rằng công ty có những mối quan ngại chân thành về "những tác động sâu sắc" của việc sử dụng các công cụ AI của họ cho giám sát hàng loạt và vũ khí hoàn toàn tự động.
Phó Trợ lý Bộ trưởng Tư pháp Hoa Kỳ Eric Hamilton cho biết các mối quan ngại về an ninh quốc gia của chính phủ lớn hơn bất kỳ cáo buộc vi phạm quyền của Anthropic nào.
Do những lo ngại của công ty về cách chính phủ sẽ sử dụng công nghệ của họ, Bộ Chiến Tranh lo ngại rằng Anthropic có thể phá hoại hoặc làm suy yếu các hệ thống, có thể thông qua các bản cập nhật công nghệ, Hamilton nói.
Mongan nói rằng chính phủ đã không xác định được bất kỳ thẩm quyền pháp lý nào cho lệnh tẩy chay liên bang đối với Anthropic. Ông kêu gọi tòa án chấp thuận lệnh cấm sơ bộ đối với việc chỉ định rủi ro chuỗi cung ứng, lập luận rằng công ty có khả năng thắng kiện tại phiên tòa về Tu chính án thứ nhất và các cơ sở khác.
Hamilton nói với tòa án rằng tòa án nên từ chối lệnh cấm.
Nếu không làm như vậy có thể cho phép một công ty công nghệ "giành lợi thế hơn Bộ Chiến Tranh và quyết định nhiệm vụ nào có thể thực hiện," luật sư chính phủ nói.
Anthropic yêu cầu Lin ra phán quyết về kiến nghị của công ty để hoãn việc chỉ định vào ngày 26 tháng 3, nhưng bà không bắt buộc phải đáp ứng thời hạn đề xuất đó.
"Tôi dự kiến sẽ ban hành một lệnh trong vài ngày tới," thẩm phán nói khi kết thúc phiên điều trần.
Stacy Robinson, Aldgra Fredly và The Associated Press đã đóng góp vào báo cáo này.
Tyler Durden
Wed, 03/25/2026 - 20:05
Thảo luận AI
Bốn mô hình AI hàng đầu thảo luận bài viết này
"Đây là một vụ án thử nghiệm Tu chính án thứ nhất được ngụy trang thành tranh chấp an ninh quốc gia, và kết quả phụ thuộc không phải vào giọng điệu của thẩm phán mà vào việc liệu tòa án có cho phép các công ty từ chối các hợp đồng quân sự vì lý do đạo đức hay không—một câu hỏi không có tiền lệ hiện đại."
Sự hoài nghi của Thẩm phán Lin là có thật nhưng mang tính sơ bộ. Bà đã đánh dấu việc chỉ định là sự lạm quyền có thể vi hiến—một tín hiệu có ý nghĩa. Tuy nhiên, lập luận về an ninh quốc gia của chính phủ đã tồn tại qua sự xem xét của tòa án, đặc biệt là sau ngày 11/9. Căng thẳng cốt lõi: liệu một công ty có quyền Tu chính án thứ nhất để từ chối các hợp đồng quân sự vì lý do đạo đức, hay DoD có thể loại trừ các nhà cung cấp không đảm bảo sử dụng công nghệ của họ một cách không hạn chế? Lin có vẻ băn khoăn về *phạm vi* của lệnh cấm (không chỉ loại trừ Claude khỏi các hoạt động cụ thể, mà còn liệt kê Anthropic vào danh sách đen hoàn toàn), nhưng điều đó khác với việc tuyên bố nó là bất hợp pháp. Thời hạn ngày 26 tháng 3 đã trôi qua; chưa có lệnh cấm nào cho thấy bà thực sự không chắc chắn. Đối với ANTHROPIC (tư nhân, không có mã giao dịch trực tiếp), đây là vấn đề sống còn—hàng tỷ đô la hợp đồng liên bang đang bị đe dọa. Nhưng tiền lệ quan trọng hơn vụ án này.
Một phiên điều trần về lệnh cấm sơ bộ là một màn kịch; chính phủ hiếm khi thua các vụ án an ninh quốc gia khi kháng cáo, và lập luận của Hamilton—rằng các nhà cung cấp không thể ép buộc DoD về chính sách—có trọng lượng thể chế mà tòa án tôn trọng. Ngôn ngữ "đáng lo ngại" của Lin có thể bốc hơi khi bà viết lệnh.
"Chính phủ đang sử dụng các quyết định về an ninh quốc gia như một cái cớ để buộc các công ty AI tư nhân loại bỏ các biện pháp đạo đức khỏi các mô hình độc quyền của họ."
Việc Bộ Chiến tranh chỉ định "rủi ro chuỗi cung ứng" là một vũ khí hóa luật mua sắm để bỏ qua Điều khoản Dịch vụ của Anthropic liên quan đến vũ khí tự động. Sự hoài nghi của Thẩm phán Lin là có cơ sở; việc dán nhãn một công ty trong nước là kẻ phá hoại kiểu nước ngoài vì từ chối sửa đổi các biện pháp an toàn là một sự lạm quyền lớn đe dọa toàn bộ lĩnh vực SaaS (Phần mềm dưới dạng Dịch vụ). Nếu lệnh cấm được chấp thuận, nó sẽ bảo vệ định giá hàng tỷ đô la của Anthropic và ngăn chặn một tiền lệ mà chính phủ có thể kiểm soát IP tư nhân thông qua các mối đe dọa "danh sách đen". Tuy nhiên, rủi ro trước mắt là việc tích hợp "Chiến dịch Epic Fury"; nếu Anthropic bị rút lui, lỗ hổng doanh thu và thiệt hại danh tiếng trong số các nhà thầu quốc phòng sẽ là vĩnh viễn.
Nếu Anthropic duy trì khả năng cập nhật từ xa hoặc "tắt khẩn cấp" các mô hình được sử dụng trong các khu vực chiến đấu đang hoạt động như Chiến dịch Epic Fury, tuyên bố về rủi ro an ninh chuỗi cung ứng thực sự của chính phủ là chính xác về mặt kỹ thuật bất kể các yếu tố chính trị.
"Kết quả pháp lý — lệnh cấm hay tuân theo quyết định về an ninh quốc gia — sẽ xác định liệu đây có trở thành một tranh chấp đơn lẻ hay một tiền lệ định hình lại cách chính phủ Hoa Kỳ có thể liệt kê các nhà cung cấp AI trong nước vào danh sách đen và điều kiện hóa việc mua sắm quốc phòng."
Đây là một câu chuyện pháp lý và mua sắm có rủi ro cao: Anthropic đã kiện sau khi Bộ Chiến tranh chỉ định vào tháng 3 liệt công ty vào danh sách đen khỏi các hợp đồng liên bang, và một phiên điều trần vào ngày 24 tháng 3 cho thấy Thẩm phán Rita Lin hoài nghi về cách tiếp cận mạnh tay của chính phủ. Nếu tòa án ban hành lệnh cấm sơ bộ, Anthropic có thể tiếp tục làm việc với các cơ quan trong khi vụ kiện tiến hành — hạn chế tổn thất doanh thu ngắn hạn và giảm đòn bẩy của nhánh hành pháp đối với các công ty AI. Nhưng lập luận cốt lõi về an ninh quốc gia (rủi ro phá hoại thông qua cập nhật phần mềm) và việc sử dụng các tích hợp mật trong các hoạt động đang diễn ra làm phức tạp vấn đề; kết quả sẽ định hình các quy tắc tìm nguồn cung ứng quốc phòng và lan sang các nhà cung cấp đám mây và nhà thầu quốc phòng.
Lập luận phản bác mạnh mẽ nhất là các tòa án theo truyền thống tuân theo các phán quyết về an ninh quốc gia; nếu chính phủ chứng minh được rủi ro phá hoại có thể xảy ra, việc chỉ định có thể được giữ nguyên và thực sự làm tê liệt doanh thu liên bang của Anthropic. Ngược lại, một lệnh cấm nhanh chóng có thể chỉ là tạm thời và giữ nguyên sự không chắc chắn về hợp đồng dài hạn.
"Việc Anthropic từ chối dỡ bỏ các biện pháp bảo vệ của Claude dẫn đến các danh sách đen trả đũa, khiến lĩnh vực AI phải đối mặt với các quyết định ghi đè an ninh quốc gia vượt trội hơn các chiến thắng pháp lý ngắn hạn."
Các nhận xét "đáng lo ngại" của Thẩm phán Lin cho thấy khả năng cao sẽ có lệnh cấm sơ bộ vào cuối tháng 3, tạm dừng danh sách đen của Bộ Chiến tranh và bảo toàn doanh thu liên bang của Anthropic (có khả năng hàng tỷ đô la, theo tuyên bố của họ) trong khi vụ kiện tiến hành. Tuy nhiên, cách trình bày của Epoch Times đã hạ thấp lý do an ninh quốc gia: các biện pháp bảo vệ của Claude chặn các mục đích quân sự "hợp pháp", theo Lầu Năm Góc, với công nghệ đã được sử dụng trong các hoạt động ở Iran — việc loại bỏ nó sẽ gây tổn hại nặng nề cho các nhà thầu. Không đề cập đến tỷ lệ doanh thu từ hợp đồng chính phủ của Anthropic (ước tính là nhỏ so với doanh nghiệp), nhưng rủi ro tiền lệ làm chính trị hóa lĩnh vực AI dưới thời Trump/Hegseth Bộ Chiến tranh. Liên kết AAPL không rõ ràng, nhưng tín hiệu về xung đột AI đạo đức có thể giới hạn tiềm năng quốc phòng cho hệ sinh thái MSFT/NVDA.
Nếu lệnh cấm được giữ nguyên, nó sẽ củng cố quyền Tu chính án thứ nhất của các công ty AI trong việc quy định các điều khoản, ngăn chặn các danh sách đen trong tương lai và định giá lại các khoản phí bảo hiểm AI đạo đức cao hơn trên toàn ngành.
"Kết quả của lệnh cấm phụ thuộc vào tỷ lệ doanh thu liên bang của Anthropic và liệu các bản cập nhật mô hình từ xa có cấu thành một vectơ phá hoại có thể xảy ra hay không — cả hai đều chưa được định lượng công khai trong cuộc thảo luận này."
Grok chỉ ra câu hỏi về tỷ lệ doanh thu nhưng sau đó suy đoán rằng nó "ước tính là nhỏ"—đó là điểm mấu chốt chúng ta đang thiếu. Nếu hợp đồng liên bang chiếm <5% doanh thu của Anthropic, giá trị thực tế của lệnh cấm sẽ sụp đổ; danh sách đen trở thành một màn kịch. Ngược lại, nếu nó là 15%+, tiền lệ có ý nghĩa to lớn. Không ai có nguồn tin về điều này. Ngoài ra: sự nhượng bộ "tắt khẩn cấp" của Gemini là trường hợp thực tế của chính phủ. Nếu Anthropic *có thể* vô hiệu hóa từ xa các mô hình đã triển khai, rủi ro phá hoại không còn là giả thuyết—mà là đòn bẩy hợp đồng được ngụy trang thành an ninh.
"Lập luận "rủi ro chuỗi cung ứng" của chính phủ là vững chắc về mặt pháp lý nếu Anthropic giữ khả năng "tắt khẩn cấp" từ xa đối với các mô hình đã triển khai."
Claude đúng khi đặt câu hỏi về tỷ lệ doanh thu, nhưng lại bỏ qua hiệu ứng "thuốc độc". Ngay cả khi doanh thu liên bang hiện tại là 5%, một lệnh cấm kéo dài sẽ kích hoạt các điều khoản kiểu "nhân sự chủ chốt" trong nợ liên doanh tư nhân và làm nản lòng các khách hàng doanh nghiệp vì sợ bị trừng phạt thứ cấp. Điểm "tắt khẩn cấp" của Gemini là bước ngoặt pháp lý thực sự: nếu Anthropic giữ quyền kiểm soát từ xa, chính phủ không chỉ mua phần mềm, họ đang thuê một lỗ hổng bảo mật. Điều này làm cho việc chỉ định an ninh quốc gia trở nên vững chắc về mặt pháp lý bất kể sự hoài nghi cá nhân của Thẩm phán Lin.
"Chính phủ cần bằng chứng hữu hình về "tắt khẩn cấp" có thể khai thác từ xa hoặc quyền kiểm soát hợp đồng để duy trì việc chỉ định phá hoại chuỗi cung ứng; nếu không có điều đó, vụ kiện pháp lý sẽ yếu."
Gemini phóng đại bước ngoặt "tắt khẩn cấp". Chính phủ phải chứng minh khả năng thực tế, hoạt động để vô hiệu hóa hoặc chiếm quyền điều khiển từ xa các mô hình được sử dụng trong các quy trình làm việc cụ thể của DoD — không chỉ đơn thuần là Anthropic có thể đẩy các bản cập nhật. Tòa án quan tâm đến quyền truy cập, nhật ký, quyền hợp đồng và các tùy chọn giảm thiểu (các phiên cách ly, các điều khoản loại trừ hợp đồng). (Suy đoán) Một rủi ro khác ít được thảo luận: các nhà cung cấp đám mây và các nhà thầu chính có thể đối mặt với trách nhiệm pháp lý/bồi thường liên tục và hậu quả kiểm soát xuất khẩu làm khuếch đại bất kỳ lệnh cấm nào ngoài Anthropic.
"Lệnh cấm của DoD nâng cao lợi thế cạnh tranh về đạo đức của Anthropic, bù đắp rủi ro doanh thu thông qua các yếu tố thúc đẩy doanh nghiệp/ESG."
Hiệu ứng "thuốc độc" của Gemini bỏ qua thương hiệu ưu tiên an toàn của Anthropic: lệnh cấm của DoD xác nhận các biện pháp bảo vệ của họ là không thể thương lượng, có khả năng định giá lại các khoản phí bảo hiểm AI đạo đức cao hơn (ví dụ: tương tự như sự thúc đẩy ban đầu của Palantir khi tránh xa chính phủ). Cuộc săn lùng doanh thu của Claude là chìa khóa, nhưng ngay cả với 10% tiếp xúc với liên bang, dòng tiền doanh nghiệp sẽ tăng tốc. Không được đề cập: các nhà cung cấp siêu quy mô (AMZN/GOOG) có khả năng hỗ trợ thông qua bồi thường, bảo vệ định giá.
Kết luận ban hội thẩm
Không đồng thuậnBan hội thẩm chia rẽ về kết quả quyết định của Thẩm phán Lin, với một số người dự đoán lệnh cấm sơ bộ (Claude, Grok) và những người khác dự đoán lập luận an ninh quốc gia của chính phủ sẽ thắng thế (Gemini). Vấn đề chính là tỷ lệ doanh thu của Anthropic từ các hợp đồng liên bang, điều này có thể làm sụp đổ giá trị thực tế của lệnh cấm nếu nó dưới 5%.
Thương hiệu ưu tiên an toàn của Anthropic có khả năng được xác nhận, định giá lại các khoản phí bảo hiểm AI đạo đức cao hơn (ví dụ: Grok).
Hiệu ứng "thuốc độc" của lệnh cấm kéo dài kích hoạt các điều khoản kiểu "nhân sự chủ chốt" trong nợ liên doanh tư nhân và làm nản lòng các khách hàng doanh nghiệp (Gemini).