Trong thời đại công nghệ bùng nổ, trí tuệ nhân tạo không chỉ còn là công cụ viết email hay tạo hình ảnh. Nó đang dần bước vào những nơi nhạy cảm nhất của quyền lực quốc gia: quân đội và chiến tranh.

Và chính tại đây, một cuộc giằng co đầy kịch tính đang diễn ra giữa Lầu Năm Góc và các công ty AI hàng đầu của Mỹ như Anthropic và OpenAI.

Câu chuyện này không chỉ là tranh chấp hợp đồng trị giá hàng trăm triệu USD.
Nó là cuộc tranh luận lớn hơn: AI nên phục vụ chiến tranh đến mức nào?
Lầu Năm Góc muốn AI phục vụ “mọi mục đích hợp pháp”

Bộ Quốc phòng Mỹ hiện đang sử dụng hệ thống AI Claude của công ty Anthropic trên các mạng lưới quân sự mật. Đây là mô hình AI đầu tiên được triển khai trên hệ thống phân loại bí mật của quân đội Mỹ.
Nhưng một bất đồng lớn đã nổ ra.

Lầu Năm Góc yêu cầu Anthropic cho phép sử dụng AI “cho mọi mục đích hợp pháp” trong quân đội.
Tuy nhiên, công ty này đặt ra hai lằn ranh đỏ:
• Không sử dụng AI cho vũ khí tự động hoàn toàn
• Không dùng AI cho giám sát hàng loạt công dân Mỹ

Anthropic cho rằng công nghệ AI hiện nay chưa đủ đáng tin cậy cho những mục đích này và có thể gây nguy hiểm.

CEO của công ty, Dario Amodei, tuyên bố thẳng thắn:
“Các lời đe dọa không làm thay đổi lập trường của chúng tôi. Chúng tôi không thể đồng ý với yêu cầu đó.”
Tối hậu thư 5 giờ 01 phút chiều
Lầu Năm Góc đã đưa ra một tối hậu thư:
Nếu Anthropic không chấp nhận thay đổi hợp đồng trước 5:01 chiều thứ Sáu, quân đội Mỹ sẽ:
• Hủy hợp đồng trị giá 200 triệu USD
• Gắn nhãn công ty là “rủi ro chuỗi cung ứng”

Đây là một nhãn cực kỳ nghiêm trọng, thường chỉ áp dụng cho các công ty có liên hệ với đối thủ nước ngoài.
Nếu bị dán nhãn này, nhiều khách hàng lớn của Anthropic – đặc biệt là các doanh nghiệp có hợp đồng với chính phủ Mỹ – có thể buộc phải ngừng hợp tác với công ty.
OpenAI cũng có cùng “lằn ranh đỏ”
Điều đáng chú ý là OpenAI – công ty tạo ra ChatGPT – cũng có lập trường tương tự.

Người phát ngôn của OpenAI xác nhận rằng công ty cũng đặt ra những giới hạn giống Anthropic khi hợp tác với quân đội.
CEO Sam Altman nói trong một cuộc phỏng vấn:
Các công ty AI nên hợp tác với Lầu Năm Góc, miễn là tuân thủ các quy định pháp lý và những lằn ranh đỏ của ngành.

Altman thậm chí còn bày tỏ sự tôn trọng đối thủ:
“Dù có nhiều khác biệt với Anthropic, tôi vẫn tin rằng họ thật sự quan tâm đến vấn đề an toàn.”
AI – vũ khí mới của thế kỷ 21
Cuộc tranh chấp này phản ánh một sự thật:
AI đang trở thành chiến trường mới của các siêu cường.
Chính quyền Mỹ đã nhiều lần tuyên bố rằng cuộc đua AI với Trung Quốc có tầm quan trọng tương tự cuộc đua không gian trong Chiến tranh Lạnh.

Lầu Năm Góc cho biết họ sẽ tiếp tục:
• mở rộng kho năng lực AI
• triển khai công nghệ này cho mọi mục đích hợp pháp trong quân đội

Trong khi đó, các công ty công nghệ lo ngại rằng nếu không có giới hạn, AI có thể bị sử dụng cho:
• vũ khí tự động
• giám sát xã hội
• các hệ thống chiến tranh hoàn toàn do máy móc điều khiển
Những người khổng lồ công nghệ và quyền lực quân sự
Ngoài Anthropic và OpenAI, nhiều công ty AI khác cũng đang tham gia vào cuộc chơi này.
Ví dụ:
• Grok của Elon Musk đã được chấp nhận sử dụng trong các môi trường quân sự mật
• nhiều công ty khác đang phát triển các nguyên mẫu AI phục vụ quốc phòng
Tuy nhiên, Claude của Anthropic vẫn được đánh giá là một trong những mô hình AI tiên tiến nhất hiện nay, khiến Lầu Năm Góc không muốn dễ dàng từ bỏ.
Một chuyên gia tại Trung tâm Nghiên cứu Chiến lược và Quốc tế nhận xét:
Việc trừng phạt một công ty AI hàng đầu của Mỹ trong bối cảnh cạnh tranh với Trung Quốc có thể giống như tự đốt đi một viên ngọc quý của ngành công nghệ quốc gia.
Khi đạo đức công nghệ đối đầu với nhu cầu chiến tranh
Cuộc tranh cãi giữa Anthropic và Lầu Năm Góc đặt ra một câu hỏi lớn cho thời đại AI:
Ai sẽ quyết định ranh giới đạo đức của trí tuệ nhân tạo?
• Chính phủ?
• Quân đội?
• Hay các công ty công nghệ?

Anthropic cho rằng AI có thể làm suy yếu các giá trị dân chủ nếu bị sử dụng sai mục đích.
Trong khi đó, Lầu Năm Góc khẳng định quyền quyết định thuộc về chính phủ, không phải doanh nghiệp.

Người Việt có câu:
“Dao sắc không gọt được chuôi.”
Công nghệ càng mạnh, câu hỏi về trách nhiệm và kiểm soát càng trở nên khó khăn.
Trí tuệ nhân tạo có thể trở thành công cụ bảo vệ tự do.
Nhưng nếu không cẩn thận, nó cũng có thể trở thành cỗ máy quyền lực lớn nhất mà con người từng tạo ra.