Được soạn bởi Viện Tương lai Sự sống (Future of Life Institute), thư hiện có có tới hơn 1.000 chữ ký của các nhà lãnh đạo và nhà nghiên cứu công nghệ. Trong đó có tỷ phú Elon Musk, nhà đồng sáng lập Apple Steve Wozniak, chính trị gia Andrew Yang, CEO Stability AI Emad Mostaque, và người được mệnh danh là "bố già AI" Yoshua Bengio. Future of Life Institute là tổ chức phi lợi nhuận tại Mỹ với sứ mệnh "giảm thiểu rủi ro thảm khốc từ những công nghệ mạnh mẽ ở quy mô toàn cầu", theo mô tả trên website.
"Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi nhận được sự tin tưởng, rằng chúng sẽ đóng vai trò tích cực và kiểm soát được rủi ro. Do đó, chúng tôi kêu gọi các phòng thí nghiệm trí tuệ nhân tạo lập tức dừng việc đào tạo các hệ thống AI mạnh hơn GPT-4 ít nhất trong 6 tháng", thư có đoạn. "Các phòng thí nghiệm AI và các chuyên gia nên dùng thời gian này để cùng nhau xây dựng một bộ quy tắc dùng chung trên tinh thần phát triển AI tiên tiến, được kiểm tra và giám sát chặt chẽ bởi các chuyên gia độc lập".
Theo lá thư, động thái này không phải để hạn chế công nghệ. Thay vào đó, đây bước lùi cần thiết để kiểm soát và ngăn chặn nguy cơ lạm dụng AI cho các mục đích nguy hiểm. Bên cạnh đó, nó cũng hạn chế cuộc chạy đua thiếu kiểm soát giữa các công ty công nghệ trong lĩnh vực trí tuệ nhân tạo.
"Nếu việc tạm dừng như vậy không thể được triển khai nhanh chóng, các chính phủ nên can thiệp và đưa ra lệnh cấm", bức thư nêu.
Ngay sau khi xuất hiện, bức thư nhanh chóng thu hút sự chú ý với các ý kiến trái chiều. Gary Marcus, giáo sư tâm lý học và khoa học thần kinh tại Đại học New York, cho rằng "nội dung thư không hoàn hảo, nhưng tinh thần thì đúng" trong cuộc phỏng vấn với Reuters. Trong khi đó, viết trên Twitter, Mostaque nói ông không nghĩ việc dừng sáu tháng là ý tưởng hay, nhưng đánh giá thư "có một số điều thú vị".
Tuy nhiên, một số chuyên gia nhận định bức thư đang "thổi phồng AI" hơn là kêu gọi ngăn chặn nguy cơ gây nguy hiểm của nó. "Vội vàng xây dựng các cỗ máy sử dụng mô hình ngôn ngữ lớn (LLM) mà không xem xét rủi ro là điều tồi tệ. Nhưng đến nay, rủi ro và tác hại chưa bao giờ xuất phát từ nguyên nhân AI quá mạnh", Emily Bender, Giáo sư Khoa Ngôn ngữ học tại Đại học Washington, viết trên Twitter.
Theo bà Bender, thư đã định hướng sai về LLM "theo cách rất mơ hồ và không hiệu quả" vì tập trung vào lý do để ngăn chặn thay vì kiểm soát AI. Đồng tình, Arvind Narayanan, Phó Giáo sư Khoa học Máy tính tại Princeton, cho rằng thư chứa đầy sự cường điệu về AI khiến "việc giải quyết tác hại thực sự đang xảy ra của AI trở nên khó khăn hơn".
Ý kiến ()