Giới chuyên gia kêu gọi hành động để ứng phó các nguy cơ liên quan đến AI

Cập nhật ngày: 30/03/2023 07:42:46

Các chủ doanh nghiệp, chuyên gia và nhà nghiên cứu hàng đầu trong lĩnh vực trí tuệ nhân tạo (AI) đã ký vào một bức thư ngỏ kêu gọi tạm dừng 6 tháng việc huấn luyện các mô hình AI mạnh hơn GPT-4 mà công ty OpenAI vừa cho ra mắt năm 2022.


Ảnh minh họa: Getty Image

Bức thư do tổ chức phi lợi nhuận Viện Cuộc sống tương lai (Future of Life) phát hành và có chữ ký của hơn 1.000 người, trong đó có ông chủ hãng xe Tesla, tỷ phú Elon Musk; Giám đốc điều hành (CEO) của công ty Stability AI, ông Emad Mostaque; các nhà nghiên cứu tại DeepMind của tập đoàn Alphabet, cũng như các nhân vật có thế lực trong lĩnh vực AI như Yoshua Bengio và Stuart Russell.

Viện dẫn các nguy cơ tiềm tàng đối với xã hội và nhân loại, các chuyên gia và chủ doanh nghiệp cho rằng cần tạm ngừng phát triển AI tiên tiến cho đến khi các quy định về an toàn mới dành cho thiết kế AI được phát triển, thực thi và giám sát bởi các chuyên gia độc lập. Từ khi được công bố vào năm 2022, ChatGPT của OpenAI đã khởi động một cuộc chạy đua của các đối thủ nhằm đẩy nhanh việc phát triển các mô hình ngôn ngữ lớn tương tự, và các công ty tích hợp các mô hình AI phái sinh vào sản phẩm của mình.

Thư nêu rõ: “Các hệ thống AI mạnh chỉ nên được phát triển khi nào chúng ta chắc chắn rằng các tác động của chúng sẽ là tích cực và các nguy cơ sẽ được quản lý”. Thư cũng nêu chi tiết các nguy cơ tiềm tàng đối với xã hội và nền văn minh mà các hệ thống AI cạnh tranh với loài người có thể gây ra dưới dạng những gián đoạn kinh tế và chính trị. Thư kêu gọi các nhà phát triển AI phối hợp với các nhà hoạch định chính sách để quản lý AI.

Bức thư trên được phát hành trong bối cảnh lực lượng cảnh sát châu Âu (Europol) ngày 27/3 cũng bày tỏ lo ngại về pháp lý và đạo đức liên quan đến các ứng dụng AI như ChatGPT, cảnh báo về nguy cơ sử dụng hệ thống này vào các âm mưu lừa đảo qua thư, giả mạo thông tin và tội phạm mạng.

Tỷ phú Musk, người đang sử dụng AI cho hệ thống tự lái của xe Tesla, cũng bày tỏ lo ngại của mình về AI. CEO của OpenAI, ông Sam Altman đã không ký vào bức thư trên. Hiện công ty chưa bình luận gì về việc này.

Ông Gary Marcus, giáo sư tại Đại học New York, đã ký vào thư, cho biết: “Bức thư chưa hoàn hảo nhưng tinh thần là đúng đắn: chúng ta cần giảm tốc cho đến khi hiểu rõ ngọn ngành. AI có thể gây hại nghiêm trọng”.

Theo TTXVN/NDO

< Trở về trang trước
Gửi bình luận của bạn