Trong báo cáo dài 98 trang được OpenAI đăng trên website, công ty không đề cập đến công nghệ cốt lõi phía sau. "Căn cứ vào bối cảnh cạnh tranh và ý nghĩa của sự an toàn đối với các mô hình trí tuệ nhân tạo lớn như GPT-4, báo cáo sẽ không kèm thông tin chi tiết về kiến trúc, phần cứng, thuật toán, cách xây dựng tệp dữ liệu, vấn đề về đào tạo hoặc tương tự", startup này nêu.
Lời giải thích không làm hài lòng cộng đồng trí tuệ nhân tạo và giới học thuật. "Đó là sự lảng tránh. Nếu thực sự là một mô hình AI mở, GPT-4 cần minh bạch hơn", Catherine Flick, nhà nghiên cứu về máy tính và trách nhiệm xã hội tại Đại học De Montfort (Anh), nói.
Irina Raicu, Giám đốc chương trình đạo đức Internet tại Đại học Santa Clara (Mỹ), cho rằng những siêu AI như GPT-4 cần được cấp quyền truy cập vào bộ dữ liệu đào tạo chatbot. "Các nhà phát triển cần làm điều đó để chỉ ra những gì còn thiếu", bà Raicu cho hay.
Trong khi đó, Andres Guadamuz, nhà nghiên cứu luật sở hữu trí tuệ tại Đại học Sussex (Anh), đánh giá động thái của OpenAI có thể là một biện pháp tự bảo vệ trước các nguy cơ pháp lý. Hành động mang tính phòng thủ này là điều dễ hiểu, nhất là khi công ty Stability AI bị dịch vụ hình ảnh Getty kiện vào tháng 1 vì sử dụng dữ liệu ảnh trái phép để huấn luyện trí tuệ nhân tạo.
"Động thái tương tự sẽ xuất hiện nhiều hơn đối với các công ty AI", Guadamuz nói. "Cởi mở có thể sẽ khiến bạn dễ tổn thương".
Tuy vậy, vấn đề "mở" được đánh giá là yếu tố quan trọng đối với các công nghệ mới. Theo các chuyên gia, những công cụ như GPT-4 sẽ tích hợp vào nhiều hệ thống chatbot khác nhau thời gian tới. Việc không minh bạch có thể khiến công chúng hiểu sai. Thời gian qua, nhiều sai sót liên quan đến ChatGPT đã thể hiện điều này.
"Các nhược điểm luôn tồn tại trong bất kỳ hệ thống máy học nào. Nếu không biết cách nó vận hành, việc nắm bắt sai sót của chúng sẽ vô cùng khó. Điều này càng quan trọng hơn bao giờ hết, khi AI dần trở nên phổ biến trong cuộc sống", một chuyên gia bình luận.
Theo nhà nghiên cứu Flick, việc các công ty "chạy đua vũ trang" về AI sau cơn sốt ChatGPT và sự ra mắt của GPT-4 sẽ khiến việc kiểm tra các công cụ này trở nên phức tạp, từ đó tác động tiêu cực đến người dùng. "Khi không gian có tính cạnh tranh hơn, các công ty sẽ cố gắng chạy đua bằng cách tung các mô hình AI chưa được thử nghiệm cẩn thận. Lúc này, tính minh bạch sẽ bị gạt qua một bên", bà nói.
Ngoài ra, việc OpenAI thổi phồng các tính năng cũng gây lo ngại. Ví dụ, theo chuyên gia Nick Seaver tại Đại học Tufts (Mỹ), GPT-4 đang được quảng cáo về khả năng thi cử hay thậm chí so sánh với việc vượt qua 90% luật sư. "Theo tôi, họ đang tiêm nhiễm cho chúng ta rằng AI sắp đạt đến trí tuệ của một con người thông qua các bài kiểm tra. Nhưng nếu chỉ dùng những thứ này để đánh giá AI giống như một con người, tôi cho là quá tệ", ông nói.
Theo một nghiên cứu của công ty công nghệ Casetext công bố ngày 15/3, GPT-4 đạt 297 điểm trong kỳ thi sát hạch tiêu chuẩn hành nghề luật sư. "Các mô hình ngôn ngữ lớn như GPT-4 đạt tiêu chuẩn luật sư ở hầu hết bang tại Mỹ. Chúng có khả năng giải quyết nhiệm vụ phức tạp đòi hỏi kiến thức pháp lý sâu rộng, khả năng đọc hiểu và khả năng viết", giáo sư Daniel Martin Katz thuộc Đại học Luật Chicago-Kent, một thành viên nhóm nghiên cứu nói với Reuters.
Dù vậy, theo một số tổ chức luật sư, kỹ năng của GPT-4 chỉ được tổng hợp và phân tích dựa trên dữ liệu có sẵn. Trong khi đó, để hành nghề cần nhiều thứ hơn thông qua giáo dục và kinh nghiệm. Đây là hai yếu tố AI hiện không thể sánh được.
Ý kiến ()