Đại Kỷ Nguyên

Google lo ngại những tư tưởng ‘bảo thủ’ len lỏi vào chương trình AI

Google lo ngại những tư tưởng ‘bảo thủ’ len lỏi vào chương trình AI

(Ảnh: Mikel Davis/Vision Times)

Google đã buộc phải đóng cửa hội đồng đạo đức trong nghiên cứu trí tuệ nhân tạo AI của nó chỉ vài ngày sau thành lập. Nguyên nhân là do một số nhân viên và các nhóm hoạt động đã phàn nàn rằng một trong những thành viên của hội đồng này quá bảo thủ.

Cuộc tranh cãi

Hội đồng Tư vấn Bên ngoài đối với Công nghệ Cấp cao (Advanced Technology External Advisory Council – ATEAC) do Google thành lập ban đầu bao gồm tám người đều là các chuyên gia trong các lĩnh vực khác nhau như toán học, khoa học máy tính, AI, triết học, tâm lý học, robot, chính sách công, v.v… Các thành viên hội đồng được bổ nhiệm bởi Kay Coles James, Chủ tịch Viện Chính sách theo chiều hướng bảo thủ Heritage Foundation, việc này đã gây ra nhiều tranh cãi. (Chú thích: bảo thủ ở đây có hàm nghĩa là bảo vệ duy trì truyền thống, thay vì cổ hủ).

Bà Kay Coles James, chủ tịch Viện Chính sách Heritage Foundation. (Ảnh: iwf.org)

Các nhà phê bình cho rằng bà James từng đưa ra nhiều tuyên bố chống lại cộng đồng LGBTQ. Bà cũng là người ủng hộ mạnh mẽ đề án xây bức tường biên giới của Tổng thống Trump, và đã lên tiếng chống lại quyền phá thai. Tất cả những điều này được cho là điều tiêu cực. Không lâu sau, gần 2,300 nhân viên của Google đã ký một bức thư yêu cầu công ty loại bà James khỏi vị trí này. Các học giả có tiếng không làm cho Google cũng đã ký một bức thư. Một số ý kiến cho rằng “sự cuồng tín” của bà James có thể len lỏi vào dự án AI của Google nếu lời khuyên của bà được sử dụng để xây dựng một cái khung đạo đức cho trí tuệ nhân tạo.

Sau các phản ứng chẳng mấy tích cực từ giới truyền thông, Google đã quyết định giải tán hội đồng tư vấn thay vì phải tiếp tục hứng chịu các phản hồi tiêu cực triền miên.

“Rõ ràng trong môi trường hiện tại, ATEAC không thể hoạt động như chúng tôi mong muốn…Vì vậy chúng tôi đã giải tán hội đồng và đang quay trở lại giai đoạn lên ý tưởng ban đầu”, Google cho biết trong một tuyên bố, theo Yahoo News.

Việc giải tán hội đồng đạo đức là một ví dụ điển hình về cách thức truyền thông cánh tả sử dụng các chiến thuật gây sức ép để loại bỏ những người có quan điểm khác biệt. Cách hành xử như vậy rốt cục có thể làm ngáng trở sự phát triển AI. Xét đến cùng, nếu một cái khung đạo đức được phát triển cho Trí tuệ nhân tạo, thì điều quan trọng là cả hai mặt của một vấn đề đều cần được xem xét.

AI cần phải được thiết lập để có thể cân nhắc cả hai mặt của một vấn đề. (Ảnh: Youtube)

Lấy ví dụ, ý kiến cho rằng phá thai là hành vi trái đạo đức bởi vấn đề này liên quan tới sinh mệnh đứa trẻ cũng vững chắc và có căn cứ như ý kiến cho rằng phá thai là phù hợp đạo đức khi xét đến thân thể người phụ nữ. Nếu lập luận ủng hộ chống phá thai được loại bỏ khỏi cái khung đạo đức AI, và chỉ sử dụng những lập luận ủng hộ việc phá thai, vậy làm sao có thể tạo ra một AI phù hợp đạo đức cho được? Để AI thật sự phù hợp đạo đức, thì cần phải khẳng định và cân nhắc cả hai mặt của cuộc vấn đề. Bằng cách loại bỏ các tiếng nói bảo thủ (“mang tính truyền thống”) và chỉ chấp nhận các ý kiến mang tư tưởng hơi hướng tự do, người ta sẽ tạo ra các AI được lập trình chỉ để tuân theo một hệ thống tư tưởng duy nhất.

Các chỉ dẫn thiết lập khung đạo đức cho AI của Châu Âu

Cùng lúc, dường như các nước thuộc Liên minh Châu Âu EU đã đi đầu trong việc thiết lập khung chính sách đạo đức cho Trí tuệ nhân tạo. Gần đây, Ủy ban Châu Âu đã công bố một bộ chỉ dẫn mà các công ty bị buộc phải tuân theo khi phát triển khung đạo đức cho các chương trình AI của họ.

“Khía cạnh đạo đức của AI không phải là một tính năng nâng cấp bổ sung hay một tiện ích xa xỉ … Chỉ khi có được niềm tin [VD: trong quá trình vận hành AI không lo rủi ro “tạo phản”] thì xã hội của chúng ta mới hoàn toàn có thể hưởng lợi từ công nghệ”, Andrus Ansip, phó chủ tịch EU phụ trách thị trường kỹ thuật số đơn, nhận xét trong một tuyên bố.

Một buổi họp nghiên cứu chính sách thúc đẩy AI của EU tại Hội nghị Các bên liên quan về Trí tuệ Nhân tạo. (Ảnh: aleksandravonica.com)

Đối với các chỉ dẫn liên quan đến việc thiết lập khung đạo đức cho Ai, các hệ thống AI phải được lập trình để không bao giờ có thể hạn chế quyền tự chủ của con người, đồng thời phải luôn thúc đẩy một xã hội công bằng bằng cách củng cố các quyền cơ bản của con người. Người dân phải có quyền kiểm soát toàn bộ đối với dữ liệu của họ. AI không được sử dụng dữ liệu đó để gây tổn hại đến những người dân nào đó dưới bất kỳ hình thức nào.Tất cả các hệ thống AI phải có thể được truy nguồn và cần có các cơ chế để đảm bảo rằng chúng chịu trách nhiệm cho hậu quả từ các quyết định của chúng. Khi đánh giá con người, các hệ thống AI không nên phân biệt đối xử và phải xét đến các khả năng khác nhau của một người.

Theo Vision Times
Thủy Chi biên dịch

Video: Trí tuệ nhân tạo – Nỗi lo sợ của tương lai

Exit mobile version