Đạo đức của các công nghệ mới trên chiến trường
Phân tích nhiều luồng quan điểm và chuyên môn có thể thúc đẩy sự phát triển và triển khai việc sử dụng trí tuệ nhân tạo (AI) có trách nhiệm trong chiến tranh.
Việc sử dụng Trí tuệ nhân tạo (AI) là một vấn đề đạo đức phức tạp, và nó càng phức tạp hơn bởi tiềm năng phát triển AI sẽ được sử dụng trong trận chiến để giành lấy mạng sống. Mặc dù tác động của vũ khí thường không được hiểu đầy đủ cho đến khi chúng được triển khai trên thực địa, nhưng điều cần thiết là phải nhận ra những thách thức đạo đức tiềm tàng ngay từ đầu. Ví dụ lịch sử về những người tham gia Dự án Manhattan (nghiên cứu chế tạo bom nguyên tử), những người ban đầu tin rằng công việc của họ là hợp đạo đức và có lợi cho nhân loại. Chứng kiến sự tàn phá của Hiroshima và Nagasaki và trải qua cuộc khủng hoảng tên lửa Cuba buộc họ phải đối mặt với cuộc khủng hoảng hiện hữu do sự tham gia của họ. AI quân sự đề cập đến việc triển khai các công nghệ AI và Máy học (ML) trong các ứng dụng quân sự. Điều này bao gồm các hệ thống vũ khí tự trị, ra quyết định được hỗ trợ bởi AI và thu thập thông tin tình báo. Khi xung đột Nga-Ukraine diễn ra ác liệt, những chiến trường như thế này ngày càng trở nên phổ biến với các chiến binh nhân tạo, giúp chúng ta có cái nhìn sâu sắc về vai trò của AI trong chiến tranh tương lai. Tiến sĩ Jorrit Kamminga, Giám đốc Đạo đức cơ quan nghiên cứu RAIN và Thiếu tướng (đã về hưu) Robin Fontes cho rằng “Ukraine là một phòng thí nghiệm trong đó hình thức chiến tranh mới được tạo ra. Đây không phải là một phòng thí nghiệm bên lề, mà là một giai đoạn trung tâm, một nỗ lực không ngừng và chưa từng có để tinh chỉnh, điều chỉnh và cải thiện các hệ thống hỗ trợ AI hoặc tăng cường AI để triển khai ngay lập tức. Nỗ lực đó đang mở đường cho chiến tranh AI trong tương lai.” AI và ML được sử dụng từ cả hai phía. Nga đã sử dụng máy bay không người lái có thể xác định mục tiêu bằng AI và Ukraine đã sử dụng phần mềm nhận dạng khuôn mặt gây tranh cãi trong cuộc xung đột. Đồng thời, Mỹ đang khai thác khả năng AI ở Ukraine để phân tích dữ liệu liên quan đến cuộc xung đột và theo dõi các chuyển động cũng như hoạt động của các chủ thể khác nhau để giúp quân đội Mỹ mô hình hóa tốt hơn và dự đoán cách kẻ thù tiên tiến sẽ hành xử trong cuộc chiến trong thế giới thực.
Trong bài viết này, chúng ta sẽ khám phá tác động của các công nghệ đột phá và mới nổi đối với sự ổn định của khả năng răn đe và những cơ hội mà những công nghệ này có thể mang lại cho các biện pháp kiểm soát vũ khí và xây dựng lòng tin. Đầu tiên, chúng ta sẽ thảo luận về bối cảnh chiến trường đang thay đổi thông qua việc phát triển các khả năng AI và ML cho mục đích quân sự. Việc nhanh chóng đưa máy tính vào các công cụ chiến đấu như máy bay không người lái hoặc xe tăng không người lái, cũng như thời gian ra quyết định ngày càng bị rút ngắn đi kèm với tiến bộ công nghệ này, đã đẩy loài người đến một tình huống mà chính phủ và quân đội trên khắp thế giới có thể gặp rủi ro thua cuộc. kiểm soát cả vũ khí sát thương và không sát thương. Chúng tôi thảo luận thêm về sự cần thiết của các chuẩn mực pháp lý và đạo đức, cả quốc tế và trong nước, có thể giúp ngăn chặn việc loại trừ con người khỏi chuỗi chỉ huy và kiểm soát trong các công cụ AI có thể được sử dụng cho các mối quan hệ chiến tranh và răn đe.
AI đang được quân đội triển khai như thế nào - một cân nhắc về mặt đạo đức
Tạm gác chiến tranh vốn dĩ là phi đạo đức sang một bên, chúng ta hãy phân tích vai trò của AI trên chiến trường và những tác động của nó ngoài chiến trường. Có hai mô hình chiến tranh chính: chống khủng bố - một cách tiếp cận có mục tiêu trong đó quân đội xử lý các mục tiêu di động, con người và phương tiện; và sau đó là chiến tranh kiểu cổ điển - với xe tăng, máy bay và nhiều thiết bị quân sự truyền thống hơn. Hai điều này sẽ có ý nghĩa khá khác nhau do tương lai của AI trên chiến trường mang lại nhiều quyền tự chủ hơn cho các hệ thống vũ khí, đặc biệt là trong các chức năng quan trọng như lựa chọn mục tiêu, nhận dạng và quyết định sử dụng vũ lực.
Nhiều thứ mà AI hiện đang được áp dụng trong quân đội không bị phản đối - phi công AI được thiết kế để giúp phi công chính bị bất tỉnh hạ cánh an toàn, đây là một cách sử dụng AI khá vô hại. Có nghiên cứu về việc sử dụng ML và AI để triển khai an ninh mạng nhằm sử dụng trình quét lỗ hổng và có khả năng vá các lỗ hổng. Những thứ khác như dịch ngôn ngữ dựa trên ML - một phần của Hợp đồng Jedi (hợp đồng xây dựng cơ sở hạ tầng quốc phòng doanh nghiệp chung) - và các robot xử lý bom và hậu cần hàng ngày là những khu vực làm việc tích cực. Nhưng sau đó, có nhiều ứng dụng gây tranh cãi hơn, như “lựa chọn mục tiêu” và “nhận dạng”, đặc biệt phức tạp. Các công cụ như “điểm lỗi” để ước tính thiệt hại tài sản thế chấp; và 'Skynet' nhằm mục đích phát hiện khủng bố hoặc quân nổi dậy từ các mẫu điện thoại di động. Dự án Maven nhằm mục đích theo dõi người và phương tiện xung quanh các khu vực nơi hệ thống giám sát hình ảnh chuyển động diện rộng cung cấp dữ liệu cho các lớp tiếp theo của quy trình phân tích.
Hiện tại, chúng tôi đang nhận được một số quan điểm rõ ràng khi lắng nghe ý kiến từ khu vực nhà nước ủng hộ AI với những lý do như: nó sẽ giúp cuộc sống của dân thường an toàn hơn nhờ độ chính xác cao. Các nguyên tắc đạo đức như 5 Nguyên tắc về Đạo đức AI của Bộ Quốc phòng Mỹ và tài liệu lập trường của Trung Quốc về Quy định “Các ứng dụng quân sự của AI” cố gắng đảm bảo với công chúng rằng AI mà họ phát triển cho mục đích quân sự sẽ được thiết kế và triển khai một cách có đạo đức. Bằng cách áp dụng các tiêu chuẩn này, các chính phủ trên toàn thế giới muốn thuyết phục công chúng rằng việc tiếp tục sử dụng AI trên chiến trường là chấp nhận được. Nhưng điều này không phải dùng lời nói để giải quyết được bởi vì những gì chúng ta đang tìm hiểu về các hệ thống AI là vấn đề phức tạp trong việc phân biệt chính xác giữa người chiến đấu và người không tham chiến, và đó là điều mà con người có lợi thế đáng kể so với hệ thống ML và AI. Con người có trực giác để hiểu bối cảnh và suy nghĩ về tình huống thay vì chỉ áp dụng một số mẫu thống kê.
Cân nhắc kỹ thuật và tính thực dụng của AI trên chiến trường
Làm thế nào để các ứng dụng quân sự của AI kết nối với các vấn đề tại Ấn Độ? Nhiều công cụ AI được quân đội sử dụng ở biên giới sẽ được lực lượng cảnh sát và các công ty lớn sử dụng sau này. Ví dụ: video chuyển động đầy đủ đã được sử dụng ở Afghanistan để tấn công mạng và sau đó được các công ty như Hệ thống giám sát liên tục sử dụng trên nhiều thành phố. Thực tế là vũ khí sát thương tự vận hành rõ ràng cũng sẽ được sử dụng cho cái gọi là vũ khí tự hành ít sát thương hơn. Vì vậy, một ví dụ hoàn hảo về điều này là một công ty ở Úc có tên là Cyborg Dynamics trong một podcast nói về máy bay không người lái tự động của họ có gắn súng phóng lựu nhỏ. Họ cho biết thị trường quốc tế có thể thay thế súng phóng lựu bằng hơi cay để cảnh sát có thể sử dụng nó đối với những người biểu tình. Sau đó, ý tưởng đã được phát triển và máy bay không người lái tự động được sử dụng để bắn hơi cay và lựu đạn phá cao su ở Gaza trong cuộc xung đột. Nhà nghiên cứu William Gibson diễn giải: “Đây chính là tương lai; nó chỉ không được áp dụng đồng đều thôi”, và chúng ta có thể nhìn vào các ví dụ ở nước ngoài để biết được những gì sắp xảy ra trong nước.
Xu hướng tự động hóa: Xu hướng này là khi con người làm theo hướng dẫn của máy tính mà không đặt câu hỏi. Vì vậy, ví dụ: nếu thuật toán thị giác của máy tính được sử dụng để nhắm mục tiêu cho biết rằng cuộc đình công là tốt và chúng tôi chấp nhận câu trả lời đó, thì đó trở thành một việc phức tạp và rủi ro cao. Một khía cạnh khác là các tình huống chiến tranh diễn biến rất nhanh, không có cuộc xung đột nào giống nhau. Địa lý, các bên tham chiến, chiến thuật được sử dụng và vũ khí được sử dụng sẽ thay đổi theo thời gian và địa điểm. Vì vậy, không có mô hình nào ổn định về mặt lý thuyết. Do đó, không có cách tính toán thích hợp nào để đưa ra quyết định đó trong khi tuân thủ Luật Nhân đạo Quốc tế (IHL), tức là đánh giá hành vi của những chiến binh máy. Vì vậy, bất kỳ hệ thống nào cố gắng làm điều này sẽ không chính xác và dẫn đến nhiều vấn đề. Do đó, sự kiểm soát của con người trong các hệ thống cần nâng cao hơn nữa khả năng của con người trong việc áp dụng phán đoán theo ngữ cảnh cụ thể.
Chúng ta có thể lập trình các hệ thống này với đạo đức hoặc IHL để làm cho chiến tranh trở nên đạo đức hơn không?
Các quy trình chính sách xung quanh đạo đức của AI, và cụ thể là AI quân sự, vẫn đang phát triển. Tuy nhiên, chúng ta cần nhận thức được thực tế rằng đạo đức không chỉ là tuân theo bộ quy tắc được xác định trước. Vai trò của lương tâm con người, một phần khả năng của con người trong việc bất đồng quan điểm và thảo luận về những chuẩn mực nên có, là rất quan trọng. Một trong những thỏa thuận quốc tế quan trọng nhất là IHL. Đó là một bộ quy tắc chi phối việc tiến hành xung đột vũ trang, bao gồm các điều khoản về bảo vệ thường dân và những người không tham chiến khác, cũng như cấm một số loại vũ khí và phương pháp chiến tranh. Tuy nhiên, đó là một bộ quy tắc mở rộng và chưa rõ ràng, việc triển khai đạo đức hoặc IHL vào các hệ thống AI để làm cho chiến tranh trở nên đạo đức hơn đặt ra nhiều thách thức. Các cân nhắc về đạo đức phụ thuộc vào ngữ cảnh, điều này khiến việc lập trình chúng thành phần mềm trở thành một nhiệm vụ phức tạp. Sự hiểu biết về đạo đức và IHL trong phần mềm có thể thiếu tính minh bạch và sự giám sát cần thiết. Do đó, điều quan trọng là phải đánh giá nghiêm túc các lựa chọn được đưa ra khi xử lý các hệ thống AI và đảm bảo chúng phù hợp với các chuẩn mực đạo đức và pháp lý.
Con đường phía trước
Nhân viên quân sự con người nhận được kiến thức về đạo đức, luân lý và pháp luật trong xã hội trước khi họ tham chiến. Kiến thức này được mở rộng hơn nữa thông qua việc củng cố các đặc tính chiến binh và triển khai lực lượng cụ thể trong quân đội. Khi quân đội trên toàn thế giới ngày càng kết hợp AI và quyền tự vận hành vào không gian chiến đấu và các cỗ máy thông minh, tại sao chúng ta nên tiếp cận chúng theo cách khác? Thừa nhận sự phức tạp và rủi ro vốn có liên quan đến AI quân sự, điều quan trọng là phải thiết lập các tiêu chuẩn nghiêm ngặt và chuẩn mực đạo đức. Hợp tác quốc tế là rất quan trọng trong việc thiết lập các quy tắc và hướng dẫn đạo đức ưu tiên kiểm soát con người, tính minh bạch, trách nhiệm giải trình và bảo vệ cuộc sống dân sự. Bằng cách tích hợp các quan điểm và kiến thức chuyên môn đa dạng, có thể thúc đẩy sự phát triển và triển khai AI có trách nhiệm trong chiến tranh.
Tác giả: Animesh Jain, thành viên chính sách Văn phòng Cố vấn Khoa học Chính cho Chính phủ Ấn Độ
Nguồn: https://www.orfonline.org/expert-speak/ethics-of-emerging-technologies-on-the-battlefield/
- Share
- Copy
- Comment( 0 )
Cùng chuyên mục