Vũ khí AI chính là cho phép máy móc đưa ra quyết định giết người, bằng cách thu nhỏ con người thành dữ liệu?Liệu vũ khí AI có thể giảm thiểu thiệt hại cho dân thường? Liệu nó có biết rút lui nếu con người không can thiệp?
Máy bay không người lái Gambit của Công ty General Atomics được thiết kế gắn với AI và hệ thống tự trị - Ảnh: GENERAL ATOMICS
Theo báo Asia Times, các câu hỏi đáng đặt ra xuất phát từ việc gần như không thể đảm bảo rằng các vũ khí AI tuân thủ các nguyên tắc của luật nhân đạo quốc tế.
Nhiều điều đã được nói và viết về cách trí tuệ nhân tạo (AI) sẽ cách mạng hóa thế giới. Nhưng mối lo ngại đang gia tăng về việc sử dụng vũ khí AI trong chiến tranh, cùng với biến đổi khí hậu, có thể dẫn đến những hậu quả tàn khốc cho nhân loại.
AI đã có kinh nghiệm chiến đấu, nhưng còn đạo đức?
Tháng 3-2020, một máy bay không người lái (drone) do Thổ Nhĩ Kỳ sản xuất đã sử dụng tính năng nhận dạng khuôn mặt để tham gia vào cuộc xung đột ở Libya. Ba năm trôi qua, vẫn còn thiếu quy định hoạt động của các loại vũ khí AI "tự trị" này.
Chúng ta có thể tin nổi vũ khí AI phân biệt được dân thường và chiến binh không? Liệu vũ khí AI có thể giảm thiểu thiệt hại cho dân thường? Liệu nó có biết rút lui trong những tình huống mà quyết định thuộc về cảm xúc sẽ rất quan trọng, nếu con người không can thiệp?
Trong trường hợp không có sự kiểm soát của con người, sẽ rất khó để quy trách nhiệm cho các tội ác chiến tranh.
Về mặt đạo đức, việc cho phép máy móc đưa ra quyết định giết người, bằng cách thu nhỏ con người thành dữ liệu, có thể coi là một hình thức phi nhân hóa kỹ thuật số.
Về mặt chiến lược, sự phổ biến của công nghệ vũ khí AI sẽ giúp các quốc gia trang bị vũ khí AI dễ dàng hơn.
Bên cạnh việc sử dụng ngày càng nhiều công nghệ vũ khí AI, nếu khả năng tiếp cận và chi phí được hạ thấp đáng kể, các chủ thể phi nhà nước có thể đưa chúng vào kho vũ khí của mình. Điều này chắc chắn sẽ gây ra những hệ lụy thảm khốc.
Chạy đua vũ trang AI
Quân nhân Ukraine học cách thả thiết bị nổ từ máy bay không người lái, ngày 12-5 - Ảnh: DEFENSE ONE
Tổng thống Nga Putin đã cho rằng: “AI là tương lai, không chỉ đối với Nga, mà còn đối với toàn thể nhân loại. Ai trở thành nhà lãnh đạo trong lĩnh vực này, đồng nghĩa với việc sẽ trở thành bá chủ thế giới”.
Hiện cuộc chạy đua vũ trang AI đang âm thầm phát triển tại nhiều quốc gia.
Năm 2023, Lầu Năm Góc đã yêu cầu Quốc hội Mỹ chi 145 tỉ USD trong một năm tài chính để tăng chi tiêu cho công nghệ quan trọng và tăng cường hợp tác với khu vực tư nhân.
Tháng 12-2022, Lầu Năm Góc đã thành lập Cơ quan Vốn chiến lược (OSC) để khuyến khích đầu tư của khu vực tư nhân vào các công nghệ sử dụng cho quân sự.
OSC cũng thu hút các ý tưởng từ khu vực tư nhân về các công nghệ quân sự thế hệ tiếp theo, một trong số công nghệ đó được mô tả là “AI tự chủ đáng tin cậy".
Vào tháng 3, một quan chức Chính phủ Mỹ đã nói về việc sử dụng các mô hình ngôn ngữ lớn (LLM) trong chiến tranh thông tin.
ChatGPT đã bị chỉ trích (và bị kiện) vì tạo “ảo giác” hoặc tạo thông tin giả mạo, các LLM tinh vi hơn có thể được các quốc gia triển khai để tạo ảo giác chống lại kẻ thù.
Một LLM cấp quân sự có thể được sử dụng để tăng cường tin tức giả mạo, thậm chí phá hoại toàn bộ hệ sinh thái thông tin của một quốc gia. Theo bản hướng dẫn, quan chức Bộ Quốc phòng Mỹ đã gọi ChatGPT chỉ là “cuộc giao tiếp cấp làng xã”.
Trong khi đó, Chính sách Hợp nhất quân - dân sự (MCF) của Trung Quốc cũng tương tự chiến lược của Mỹ.
MCF của Trung Quốc lần đầu tiên xuất hiện vào cuối những năm 1990. Tuy nhiên, nó ngày càng nhắm vào mục đích hình thành tổ hợp công nghiệp - quân sự kể từ khi ông Tập Cận Bình lên nắm quyền.
Giống như OSC, chính sách của MCF cũng theo đuổi vị trí dẫn đầu về vũ khí AI.
Ở Israel, các quan chức quân đội nghỉ hưu cũng đã nhanh chóng "khai sinh" các công ty công nghệ chuyên về công nghệ dân dụng - quân sự.
Quân đội Israel cũng đã thừa nhận sử dụng công cụ AI để lựa chọn mục tiêu cho các cuộc không kích.
Không giống như điều chỉnh việc phổ biến vũ khí hạt nhân, hiện nay thế giới đạt được rất ít tiến bộ trong việc kiểm soát chạy đua vũ trang AI. Điều này có thể là do tốc độ phát triển của AI quá nhanh. Cơ hội để kiểm soát AI đang bị thu hẹp nhanh chóng.
Quân nhân Ukraine học cách thả thiết bị nổ từ máy bay không người lái, ngày 12-5 - Ảnh: DEFENSE ONE
Tổng thống Nga Putin đã cho rằng: “AI là tương lai, không chỉ đối với Nga, mà còn đối với toàn thể nhân loại. Ai trở thành nhà lãnh đạo trong lĩnh vực này, đồng nghĩa với việc sẽ trở thành bá chủ thế giới”.
Hiện cuộc chạy đua vũ trang AI đang âm thầm phát triển tại nhiều quốc gia.
Năm 2023, Lầu Năm Góc đã yêu cầu Quốc hội Mỹ chi 145 tỉ USD trong một năm tài chính để tăng chi tiêu cho công nghệ quan trọng và tăng cường hợp tác với khu vực tư nhân.
Tháng 12-2022, Lầu Năm Góc đã thành lập Cơ quan Vốn chiến lược (OSC) để khuyến khích đầu tư của khu vực tư nhân vào các công nghệ sử dụng cho quân sự.
OSC cũng thu hút các ý tưởng từ khu vực tư nhân về các công nghệ quân sự thế hệ tiếp theo, một trong số công nghệ đó được mô tả là “AI tự chủ đáng tin cậy".
Vào tháng 3, một quan chức Chính phủ Mỹ đã nói về việc sử dụng các mô hình ngôn ngữ lớn (LLM) trong chiến tranh thông tin.
ChatGPT đã bị chỉ trích (và bị kiện) vì tạo “ảo giác” hoặc tạo thông tin giả mạo, các LLM tinh vi hơn có thể được các quốc gia triển khai để tạo ảo giác chống lại kẻ thù.
Một LLM cấp quân sự có thể được sử dụng để tăng cường tin tức giả mạo, thậm chí phá hoại toàn bộ hệ sinh thái thông tin của một quốc gia. Theo bản hướng dẫn, quan chức Bộ Quốc phòng Mỹ đã gọi ChatGPT chỉ là “cuộc giao tiếp cấp làng xã”.
Trong khi đó, Chính sách Hợp nhất quân - dân sự (MCF) của Trung Quốc cũng tương tự chiến lược của Mỹ.
MCF của Trung Quốc lần đầu tiên xuất hiện vào cuối những năm 1990. Tuy nhiên, nó ngày càng nhắm vào mục đích hình thành tổ hợp công nghiệp - quân sự kể từ khi ông Tập Cận Bình lên nắm quyền.
Giống như OSC, chính sách của MCF cũng theo đuổi vị trí dẫn đầu về vũ khí AI.
Ở Israel, các quan chức quân đội nghỉ hưu cũng đã nhanh chóng "khai sinh" các công ty công nghệ chuyên về công nghệ dân dụng - quân sự.
Quân đội Israel cũng đã thừa nhận sử dụng công cụ AI để lựa chọn mục tiêu cho các cuộc không kích.
Không giống như điều chỉnh việc phổ biến vũ khí hạt nhân, hiện nay thế giới đạt được rất ít tiến bộ trong việc kiểm soát chạy đua vũ trang AI. Điều này có thể là do tốc độ phát triển của AI quá nhanh. Cơ hội để kiểm soát AI đang bị thu hẹp nhanh chóng.
Ông Stuart Russell - giám đốc Trung tâm hệ thống thông minh tại Đại học California (Mỹ)