Đại Kỷ Nguyên

Stephen Hawking: Công nghệ mới có thể đe dọa sự sống còn của loài người

Nhà Vật lý lý thuyết Stephen Hawking (Ảnh: Getty Images)

Nhà vật lý Stephen Hawking cảnh báo rằng các công nghệ mới có thể sẽ mang lại “phương thức diễn biến sai lệch” ảnh hưởng đến sự sống còn của con người.

Khi được hỏi thế giới này sẽ kết thúc một cách “tự nhiên” hay con người sẽ phá hủy trước – Hawking nói rằng hiện đang có xu hướng hầu hết các mối đe dọa mà nhân loại phải đương đầu đều đến từ sự tiến bộ đạt được trong lĩnh vực khoa học và công nghệ. Bao gồm các cuộc chiến tranh hạt nhân, sự nóng lên đáng báo động trên toàn cầu, và từ hệ thống biến đổi gen.

Hawking đưa ra các ý kiến này ​​trong khi thu âm các bài giảng Reith định kỳ hàng năm của BBC vào ngày 07/01/2016. Bài giảng của ông đề cập đến bản chất của các hố đen, được chia thành hai phần và được phát sóng trên BBC vào ngày 26/01 và 02/02/2016.

Vị giáo sư Đại học Cambridge này nói rằng trong trường hợp trái đất này gặp thảm họa nào đó trong vòng 1.000 năm đến 10.000 năm tới (điều này gần như chắc chắn) thì nhân loại cũng ít có khả năng bị hủy diệt, vì đến khoảng thời gian đó nhân loại có thể sẽ được di chuyển vào không gian khác hay các ngôi sao khác rồi.

“Chúng ta không có ý định dừng việc phát minh, hay đảo ngược cách thức vận hành hiện nay, nhưng chúng ta phải thực sự nhận ra được những mối nguy hiểm này và kiểm soát chúng”.

– Stephen Hawking

Ông nói đùa rằng: “Vì chúng ta sẽ không thành lập các vùng tự cung tự cấp trong không gian này trong ít nhất vài trăm năm tới, nên chúng ta phải rất cẩn thận trong thời gian này”. Ông nói thêm:

“Chúng ta không có ý định dừng việc phát minh, hay đảo ngược cách thức vận hành hiện nay, do vậy chúng ta phải thực sự nhận ra được những mối nguy hiểm này và tiến hành kiểm soát sự việc. Tôi là người lạc quan, và tôi tin rằng chúng ta có thể làm được.”

Một trong những chủ đề yêu thích của Hawking là việc khuyến khích phát triển lòng từ bi của trí tuệ nhân tạo (AI). Vào tháng bảy vừa qua, Hawking cùng với Elon Musk và Steve Wozniak ký một bức thư kêu gọi lệnh cấm các loại vũ khí tự hành, và vào tháng 10/2015, ông lập nên bảng hỏi đáp riêng về các rủi ro của trí tuệ nhân tạo (Q & A) trên Reddit.

‘Đích đến của con đường công nghệ này rất rõ ràng: vũ khí tự hành sẽ trở thành khẩu AK-47 của ngày mai’. (Ảnh:YouTube)

“Chúng ta phải thay đổi mục tiêu của trí tuệ nhân tạo (AI), chuyển từ việc tạo ra trí thông minh nhân tạo không có định hướng sang việc tạo ra trí tuệ có lợi”, Hawking nhận xét rằng: “Có thể mất hàng thập kỷ để tìm ra cách thức làm điều này, vì vậy chúng ta hãy bắt đầu nghiên cứu từ ngày hôm nay chứ không đợi đến lúc bản phát minh ra trí tuệ nhân tạo đầu tiên được công bố”.

Hawking cho biết, điều khiến ông lo lắng không phải là một nhà khoa học xấu xa sẽ sản xuất ra một cái máy tà ác nào đó trong phòng thí nghiệm, mà là một trí tuệ nhân tạo (AI) được thiết kế cho những mục đích bình thường lại vận hành theo xu hướng lệch lạc, cuối cùng làm hại nhân loại một cách gián tiếp.

“Nguy cơ thực sự với trí tuệ nhân tạo không phải là hành vi ác ý mà nằm ở năng lực. Một cỗ máy trí tuệ nhân tạo siêu thông minh sẽ hoàn thành các mục tiêu của nó một cách siêu việt, tuy nhiên nếu những mục tiêu đó không phù hợp với chúng ta, chúng ta sẽ gặp rắc rối”, Hawking viết tiếp: “Bạn có lẽ không phải là ác quỷ của loài kiến mà cố tình dẫm chân giết chúng, nhưng nếu bạn đang phụ trách một dự án thủy điện năng lượng xanh và có một ổ kiến ​​trong khu vực có dòng thủy điện đi qua, thì đúng là ổ kiến này thật xấu số. Chúng ta không nên đặt nhân loại vào tình thê tương tự của những con kiến này”.

Tư Ngọc biên dịch
Theo Theepochtimes

Xem thêm:

Exit mobile version