Học viện Chính trị quốc gia Hồ Chí Minh

Trung tâm Nghiên cứu Ấn Độ

Định kiến giới trong các thiết bị AI

Định kiến giới trong các thiết bị AI

Thiết kế nữ tính hóa, các thiết bị trợ lý AI biến sự thân mật thành hàng hóa và có nguy cơ đưa các khuôn mẫu giới tính vào cuộc sống số của chúng ta.

09:11 22-10-2025 Trung tâm Nghiên cứu Ấn Độ

Mặc dù việc sử dụng Trí tuệ Nhân tạo (AI) đã lồng ghép vào nhiều khía cạnh của cuộc sống con người, nhưng có một lĩnh vực dường như nằm ngoài tầm với của AI, đó là vượt qua sự kết nối giữa con người - hỗ trợ về mặt cảm xúc và tình bạn. Tuy nhiên, ngày nay, AI cũng đã bắt đầu đảm nhiệm những vai trò này, vốn trước đây thường chỉ dành cho con người. Thế hệ bot chạy bằng mô hình ngôn ngữ lớn (LLM) hiện tại đã có khả năng học tập thích ứng, các cuộc trò chuyện tinh tế và thậm chí là hỗ trợ cảm xúc theo ngữ cảnh, khiến chúng hiện diện thường xuyên trong các lĩnh vực từ năng suất cá nhân và giáo dục đến sức khỏe thể chất và tinh thần.

Tuy nhiên, có một xu hướng chủ đạo ở các trợ lý AI này, đó là sự nữ tính hóa liên tục. Cho dù đó là giọng nói êm dịu của Alexa, giọng điệu lịch sự của Siri, hay tính cách mặc định được lập trình sẵn trong Replika và các nền tảng tương tự, thì lựa chọn thiết kế vẫn là mã hóa các hệ thống này bằng tên, giọng nói và tính khí của phụ nữ. Những trợ lý ảo này thường được lập trình để trở nên dễ chịu, hữu ích và luôn biết vâng lời - những phẩm chất củng cố định kiến ​​văn hóa ăn sâu và kỳ vọng xã hội dành cho phụ nữ với tư cách là người chăm sóc, trợ lý hoặc cấp dưới. Hơn nữa, nó định nghĩa lại động lực của dịch vụ và sự tuân thủ trong mối quan hệ giữa người và máy.

Nếu không được cân nhắc và can thiệp đúng cách, việc nữ tính hóa những người trợ lý AI có nguy cơ trở thành một thế lực vô hình nhưng lan rộng, củng cố các hệ thống phân cấp lỗi thời trong thế giới số hóa nhanh chóng.

Khi công nghệ củng cố định kiến giới

Những trợ lý AI ngày càng trở nên phổ biến với tư cách là bạn bè hoặc thậm chí là đối tác lãng mạn theo giới tính đối với người dùng, được thiết kế để trở nên nữ tính, lịch sự, dễ chịu và không gây hấn. Một báo cáo của Tổ chức Giáo dục, Khoa học và Văn hóa Liên Hợp Quốc (UNESCO) có tựa đề “Tôi sẽ đỏ mặt nếu có thể” đã phơi bày cách các trợ lý như Siri phản ứng một cách phục tùng trước sự lạm dụng, thường bằng những câu trả lời xin lỗi hoặc tán tỉnh như “Tôi sẽ đỏ mặt nếu có thể”, bình thường hóa quan niệm rằng phụ nữ luôn dễ dãi. Trên thực tế, khoảng 28% ứng dụng trợ lý AI có các nhân vật nữ ảo, đại diện cho phụ nữ được thiết kế cho tương tác lãng mạn hoặc tình dục, trong khi chỉ có khoảng 1% cung cấp các nhân vật nam.

Sự nữ tính hóa của các trợ lý ảo không phải là ngẫu nhiên, mà là sản phẩm của kinh tế học hành vi, coi giọng nói của phụ nữ ít mang tính đe dọa hơn. Trong nhiều thế kỷ, các câu chuyện và văn học đã khám phá ý tưởng về “người phụ nữ hoàn hảo” được tạo ra và được huấn luyện để phục vụ người khác. Trong truyện ngắn “The Sandman” (Người cát) của Ernst Theodor Amadeus Hoffmann xuất bản năm 1816, nhân vật chính, Nathanial, đã yêu Olympia, một con búp bê sống động như thật do giáo sư của anh tạo ra. Anh bị thu hút bởi giọng hát hoàn hảo của cô, được miêu tả trong truyện là “trong trẻo như chuông thủy tinh”, và những phản ứng nhẹ nhàng, e lệ của cô. Tuy nhiên, điều mà Nathanial ban đầu không nhận ra là Olympia không có thật; cô là một tạo vật được lập trình để làm hài lòng anh. Những trợ lý AI hiện đại lặp lại lịch sử này bằng cách tạo ra ảo tưởng về sự chủ động, được gói gọn trong các hệ thống được thiết kế để tuân thủ và gần gũi, biến chúng thành đối tượng hàng hóa hơn là thực thể tự chủ. Những lời phê bình Annie Bot của Sierra Greer, người chiến thắng Giải thưởng văn học khoa học viễn tưởng Arthur C. Clarke năm 2025, đã làm rõ nét hơn phân tích này. Annie là trợ lý AI được mã hóa theo kiểu nữ, có vẻ ngoài thông minh về mặt cảm xúc và nhạy bén, nhưng về cơ bản lại được mã hóa để phục tùng, phản ánh cách những trợ lý AI trong thế giới thực thường được thường mặc định là nữ, chẳng hạn như trợ lý ảo tên là Replika. Cuốn sách phơi bày cách thương mại hóa sự thân mật củng cố những kỳ vọng về sự quan tâm và tuân thủ theo giới tính, phá vỡ ranh giới giữa tình bạn và sự kiểm soát.

Những thành kiến ​​này không chỉ mang tính văn hóa mà còn mang hàm ý về mặt cấu trúc. Diễn đàn Kinh tế Thế giới (WEF) liên hệ điều này với sự thiếu đa dạng trong các nhóm phát triển AI, nơi các kỹ sư chủ yếu là nam giới thường vô thức mã hóa các giả định của họ vào các hệ thống mà họ xây dựng.

Phá vỡ định kiến

Con đường để giải quyết định kiến ​​giới trong các trợ lý AI là xây dựng thiết kế trung lập về giới một cách có ý thức. Ví dụ tài liệu của Google, giới thiệu giọng nói trung lập về giới vào năm 2020 phản ánh một bước tiến theo hướng này, cho thấy các lựa chọn thiết kế có thể phát triển để đáp ứng các mối quan ngại về đạo đức. Tương tự, theo báo cáo “I'd Blush If I Could” (Tôi đỏ mặt nếu tôi có thể) của UNESCO, các nhà phát triển nên chủ động thách thức các khuôn mẫu trong thiết kế giọng nói và tính cách, thay vì củng cố chúng để dễ dàng áp dụng. Một ví dụ đáng chú ý khác là Dự án Q của UNESCO và các đối tác, dự án đã tạo ra giọng nói trung lập về giới đầu tiên cho trợ lý AI. Được thiết kế để tồn tại trong một dải tần số giọng nói không phải là nam hay nữ theo truyền thống, Dự án Q chứng minh cách thiết kế âm thanh tự nó có thể chống lại logic nhị phân của giới tính. Bằng cách cung cấp một tùy chọn phi nhị phân, nó thúc đẩy ngành công nghiệp hình dung những người bạn đồng hành AI không bị ràng buộc bởi những khuôn mẫu hiện có về nữ tính như những người dễ sai bảo phục tùng.

Một giải pháp toàn diện khác có thể là đa dạng hóa các nhóm những nhà phát triển, xây dựng AI. Theo Báo cáo khoảng cách giới tính toàn cầu mới nhất của WEF (2018), chỉ 22% chuyên gia AI trên toàn cầu là nữ, so với 78% là nam. Sự đại diện quá mức của nam giới trong thiết kế và phát triển công nghệ AI có nguy cơ tạo ra định kiến ​​vô thức trong thiết kế. Lực lượng lao động đa dạng giới hơn hơn có thể nỗ lực loại bỏ những định kiến ​​này trong thiết kế hệ thống và đảm bảo rằng các trợ lý không bị mã hóa để phản ánh những khuôn mẫu lỗi thời về chăm sóc người khác và dễ sai bảo.

Các nhà phát triển cũng nên lưu ý đến cách thức đóng gói và thương mại hóa khái niệm tình bạn. AI không nên tái tạo động lực kiểm soát hoặc sự nô lệ dưới vỏ bọc hỗ trợ về mặt cảm xúc. Thay vào đó, các hệ thống có thể được thiết kế xung quanh sự tôn trọng và ranh giới, đảm bảo rằng các tương tác không bình thường hóa những định kiến ​​có hại về nữ tính và sự thân mật.

Quản trị AI phù hợp với giới tính

Việc giải quyết định kiến ​​giới phổ biến vốn có trong thiết kế người trợ lý AI sẽ đòi hỏi nỗ lực chung của nhiều bên liên quan. Các nhà hoạch định chính sách nên bắt đầu bằng việc đưa ra các hướng dẫn rõ ràng về đại diện giới tính trong thiết kế AI, đảm bảo rằng các mặc định không được mã hóa là nữ trừ khi có lý do chính đáng. Đối với ngành, trọng tâm nên là lựa chọn theo thiết kế. Các công ty cần tránh áp đặt các mặc định mang tính nữ tính và thay vào đó cho phép có nhiều giọng nói để người dùng lựa và tính cách khác nhau khi thiết lập.

Ngoài những thay đổi tự nguyện trong ngành, sự can thiệp của cơ quan quản lý sẽ là chìa khóa để đảm bảo sự thay đổi lâu dài. Các khuôn khổ hiện tại của Ấn Độ, từ Đạo luật Bảo vệ Dữ liệu Cá nhân Kỹ thuật số năm 2023 đến AI cho Tất cả của NITI Aayog, hướng tới AI có trách nhiệm nhưng vẫn chưa đề cập vấn đề thiết kế có tính giới tính trong người bạn đồng hành và trợ lý giọng nói. Bộ Điện tử và Công nghệ Thông tin (MeitY) Ấn Độ cũng đã ban hành khuyến nghị về AI gửi đến tất cả các bên trung gian và nền tảng, trong đó lưu ý đến các vấn đề bao gồm việc không cho phép nội dung bất hợp pháp, thiên vị hoặc phân biệt đối xử và các mối đe dọa đối với tính toàn vẹn của quy trình bầu cử. Tuy nhiên, khuyến nghị này đã không đề cập cụ thể đến vấn đề thiên vị giới, vấn đề có thể được giải quyết bằng các lần bổ sung, sửa đổi tiếp theo. Trên toàn cầu, các mô hình như Đạo luật AI của Liên minh Châu Âu và Khuyến nghị Đạo đức AI của UNESCO cung cấp khuôn mẫu để đưa các nguyên tắc công bằng, nhân phẩm và chống định kiến ​​vào luật ở một mức độ nào đó. Nếu không có sự hỗ trợ pháp lý như vậy, thiết kế đạo đức có nguy cơ vẫn chỉ là lựa chọn tùy chọn thương mại hóa.

Ngoài khuôn khổ chính sách, giới học thuật và người sử dụng cũng đóng vai trò quan trọng trong việc định hình các chuẩn mực xung quanh sự đồng hành của AI. Các chiến dịch truyền thông nâng cao nhận thức cộng đồng có thể giúp làm nổi bật cách các lựa chọn thiết kế định hình nhận thức xã hội về giới, làm rõ những yếu tố gây nhiễu trong truyền thông. Các trường đại học và các tổ chức nghiên cứu có thể dẫn dắt nghiên cứu liên ngành dựa trên các nghiên cứu về giới, kinh tế học hành vi và khoa học máy tính để tạo ra các khuôn khổ toàn diện hơn cho thiết kế AI. Các nhóm giám sát có thể gây áp lực buộc các công ty tránh tiếp thị các trợ lý AI theo cách củng cố sự phục tùng, thay vào đó, hãy khám phá các mô hình tương tác nhấn mạnh sự tôn trọng, tính chủ động và bình đẳng.

Kết hợp lại, những bước đi này có thể báo hiệu sự chuyển dịch từ các hệ thống AI âm thầm mã hóa các khuôn mẫu giới tính sang các hệ thống phản ánh các nguyên tắc thiết kế đạo đức, bao trùm và có trách nhiệm xã hội. Nếu không có những can thiệp như vậy, nguyên mẫu của người máy nữ tính từ Olympia trong The Sandman đến Annie trong Annie Bot, và thậm chí cả Alexa của Amazon, có nguy cơ bị khuất phục trước một cơ sở hạ tầng đầy khiếm khuyết của cuộc sống kỹ thuật số.

Viết bình luận

Bình luận

Cùng chuyên mục