Sam Altman, CEO của OpenAI - công ty đứng sau ChatGPT, lo sợ tương lai siêu AI có thể gây rủi ro "vượt xa mọi thứ đã chuẩn bị".
"Thật kỳ lạ khi mọi người nghĩ đếnAInhư một con cá lớn và sợ nó. Nhưng cũng sẽ thật điên rồ nếu nói tôi không sợ hãi chút nào. Tôi đồng cảm với những người đang có cảm giác lo sợ như vậy",Sam Altmannói về tương lai của siêu AI trên podcast của nhà nghiên cứu công nghệ Lex Fridman cuối tuần qua.
Theo Altman, AI có thể mang lại lợi ích to lớn, nhưng ông lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị. "Và điều đó không cần đòi hỏi trí tuệ siêu việt", ông nói.
Sam Altman, CEO của OpenAI. Ảnh: Bloomberg
CEO OpenAI cho rằng Mô hình ngôn ngữ lớn (LLM) có thể tác động mạnh mẽ đến nguồn thông tin và cách tương tác trên Internet theo hướng có chủ đích mà người dùng không hay biết. Ông ví dụ, LLM tích hợp vào mạng xã hội có thể "chỉ đạo" bất cứ thông tin nào theo định hướng từ trước.
Ngày 14/3, OpenAI ra mắtGPT-4với khả năng xử lý đa phương thức đầu vào, trong đó có hình ảnh, giúp người dùng tương tác với nhiều chế độ. Theo tài liệu liên quan đến cách xử lý một số rủi ro của GPT-4 được công bố sau đó, OpenAI lo ngại mô hình AI có thể "khuếch đại thành kiến và duy trì khuôn mẫu".
Trong podcast, Altman khuyến cáo người dùng không sử dụng AI cho các quyết định mang tính rủi ro cao, chẳng hạn vấn đề thực thi pháp luật, tư pháp hình sự, hoặc để đưa ra lời khuyên về pháp lý, sức khỏe. Bên cạnh đó, ông cũng cho biết các mô hình AI của công ty đang học cách thận trọng hơn trong việc trả lời câu hỏi.
"Trên tinh thần xây dựng cộng đồng và dần dần đưa xã hội phát triển, chúng tôi loại bỏ một số thứ. Nó đang có những sai sót, chúng tôi sẽ tạo ra những phiên bản tốt hơn", ông cho biết. "Tất nhiên, chúng tôi cũng cố gắng kiểm soát những thứ AI không nên trả lời. Cái gì cũng có mặt tốt và xấu. Chúng tôi sẽ giảm thiểu cái xấu và tối đa hóa cái tốt".
Gần đây, Altman liên tục nhắc đếncảm giác lo lắngvề AI, đặc biệt sau khi OpenAI thu hút sự chú ý với loạt sản phẩm nhưDall-E,ChatGPT. Đầu năm nay, ông thừa nhậnđã sốcvì ChatGPT quá phổ biến. Hôm 17/3, ông cảnh báo công nghệ trí tuệ nhân tạo có thể tái định hình xã hội, đi kèm nhiều hiểm họa khó lường.
"Chúng ta cần cẩn trọng. Mọi người nên thấy vui khi chúng tôi bày tỏ lo ngại về AI, nhất là khi các mô hình phát triển chúng có thể bị lạm dụng cho những chiến dịch tung tin giả", Altman nói khi đó.
Tỷ phúElon Musknhiều lần cảnh báoAIvà trí tuệ nhân tạo tổng hợp còn nguy hiểm hơn vũ khí hạt nhân. Altman thừa nhận phiên bản GPT-4 sử dụng phương thức "suy luận suy diễn" thay vì ghi nhớ, dẫn tới những phản hồi kỳ lạ với người dùng. "Tôi luôn nhắc mọi người về vấn đềảo giác, trong đó mô hình AI đưa ra các nội dung được chúng coi là thông tin thực tế, nhưng hoàn toàn là nội dung tự bịa ra", ông nói.
Ý kiến (0)