Sự bùng nổ của AI tạo sinh đã đặt ra một câu hỏi lớn cho giới công nghệ: Liệu con người có đang lập trình cho cái kết của mình? Suleyman đưa ra một gợi ý để tránh viễn cảnh trí tuệ nhân tạo hủy hoại nền văn minh nhân loại.
Theo Technology Revirew, Suleyman cho rằng các nhà phát triển nên khóa khả năng tự nâng cấp của AI. "Bạn sẽ không muốn để AI tự động dừng và cập nhật mã nguồn của riêng nó khi không có sự giám sát. Tương tự việc xử lý dịch bệnh nguy hiểm hoặc vật liệu hạt nhân, việc này cần được đặt dưới tầm kiểm soát của con người".
Suleyman mô tả việc thiết lập thêm những câu lệnh trong hệ thống, ngăn AI tự động nâng cấp là "công tắc" để đảm bảo an toàn cho nhân loại trong kỷ nguyên AI đang phát triển chóng mặt.
Tuần trước, một số lãnh đạo công nghệ như Bill Gates, Sam Altman, Elon Musk và Mark Zuckerberg đã tập trung tại Washington để tham dự diễn đàn kín về AI. Suleyman cho rằng đây là động thái quan trọng để cộng đồng cùng ngồi lại và đặt ra các giới hạn trong việc sử dụng dữ liệu cá nhân.
"Về cơ bản, chúng ta cần thiết lập ranh giới, phân chia rõ các lằn ranh AI không được vượt qua" ông nói. Các quy định cần được thiết lập từ khâu viết mã cho đến các tương tác đầu cuối của con người với AI.
Năm ngoái, Suleyman đã đồng sáng lập startup Inflection AI. Công ty sở hữu chatbot Pi được thiết kế để trở thành trung gian lắng nghe và đưa ra các hỗ trợ về cảm xúc một cách trung lập. Suleyman nói Pi không nổi tiếng như các chatbot khác, nhưng nó có thể được kiểm soát một cách tối đa. Đó là lý do ông lạc quan về tương lai AI có thể được điều chỉnh một cách hiệu quả.
Khi nói về lo lắng hiện hữu với trí tuệ nhân tạo, người đồng sáng lập DeepMind cho rằng có 101 vấn đề thực tế cần giải quyết ngay, từ quyền riêng tư của người dùng, định kiến AI trong việc nhận dạng khuôn mặt đến kiểm duyệt trực tuyến.
Suleyman là một trong số nhiều chuyên gia AI đã lên tiếng cảnh báo về việc xây dựng quy định rõ ràng liên quan đến công nghệ này. Demis Hassabis, một người đồng sáng lập khác của DeepMind, cũng nói việc phát triển AI nên được thực hiện một cách thận trọng, bằng phương pháp khoa học, dưới sự giám sát chặt chẽ của những thí nghiệm, thử nghiệm thay vì chạy đua ồ ạt bởi các công ty.
Theo Giám đốc điều hành Microsoft Satya Nadella, để tránh viễn cảnh "AI vuột khỏi tay người", các nhà phát triển cần đưa ra các mức phân loại rõ ràng về các mô mình minh bạch, đang còn nghi ngờ, cần chịu trách giám sát...
Hồi tháng 3, hàng chuyên gia, trong đó có "bố già AI" Geoffrey Hinton và Yoshua Bengio đã ký một bức thư ngỏ, yêu cầu các phòng thí nghiệm ngừng đào tạo các mô hình mạnh hơn GPT-4 của OpenAI trong vòng 6 tháng.
Ý kiến ()