Tài liệu “Frontier AI Framework” xác định hai loại hệ thống AI mà Meta cân nhắc không phát hành, đó là “rủi ro cao” và “rủi ro nghiêm trọng”. Điều này cho thấy công ty mẹ Facebook thận trọng hơn đối với công nghệ AI.
💥 ĐỌC RỒI, XEM RỒI > chán mắt quá rồi , tìm hiểu ngay đây >> Video chủ đề AI với các đề tài nóng nhất cùng Công nghệ AI đỉnh cao << tại đây nhé !
Trước đây, CEO Mark Zuckerberg cam kết sẽ biến trí tuệ nhân tạo tổng hợp (AGI) trở nên phổ biến.

Theo định nghĩa của Meta, các hệ thống “rủi ro cao” và “rủi ro nghiêm trọng” đều có thể hỗ trợ các cuộc tấn công mạng, tấn công sinh học, tấn công hóa học nhưng điểm khác biệt là hệ thống “rủi ro nghiêm trọng” dẫn đến “hậu quả thảm khốc không thể giảm nhẹ”.
Meta dẫn một số kịch bản, chẳng hạn xâm nhập môi trường doanh nghiệp được bảo vệ tốt nhất một cách tự động hoặc phổ biến vũ khí sinh học mức độ ảnh hưởng lớn.
Đây là những kịch bản “cấp bách nhất” mà hãng tin rằng có thể gia tăng khi công bố một hệ thống AI mạnh mẽ.
Việc phân loại hệ thống không dựa trên bất kỳ bài kiểm tra thực nghiệm nào mà đầu vào của các chuyên gia nội bộ lẫn bên ngoài.
Nếu xác định một hệ thống là “rủi ro cao”, Meta sẽ giới hạn truy cập hệ thống ở nội bộ và không tung ra cho đến khi áp dụng các biện pháp giảm thiểu rủi ro đến mức vừa phải.
Mặt khác, nếu một hệ thống bị xác định là “rủi ro nghiêm trọng”, Meta sẽ áp dụng các biện pháp bảo vệ không xác định để ngăn chặn hệ thống bị xâm nhập và dừng phát triển cho đến khi bớt nguy hiểm hơn.
Theo TechCrunch, Frontier AI Framework dường như để xoa dịu những lời chỉ trích nhằm vào cách tiếp cận mở của Meta đối với phát triển hệ thống.
Meta thường công khai mã nguồn công nghệ AI, thay vì khép kín như OpenAI. Với công ty, cách tiếp cận mở vừa có lợi vừa có hại. Bộ mô hình AI Llama của hãng được tải về hàng trăm triệu lượt, song Llama cũng được cho là bị lợi dụng để phát triển một chatbot đối địch với Mỹ.
Khi công bố Frontier AI Framework, Meta có thể đang nhắm vào DeepSeek, startup AI Trung Quốc nổi tiếng nhất hiện nay. DeepSeek cũng theo đuổi chiến lược AI nguồn mở nhưng không có nhiều biện pháp bảo vệ và dễ dàng bị điều chỉnh để tạo đầu ra độc hại.
Theo Meta, khi cân nhắc lợi hại trong việc ra quyết định về cách phát triển và ứng dụng AI tiên tiến, công nghệ có thể phục vụ xã hội theo cách vừa duy trì lợi ích vừa duy trì mức độ rủi ro phù hợp.
(Theo TechCrunch)
Meta có thể dừng phát triển các hệ thống AI ‘quá rủi ro’ điện tử hóa tương lai không xa và Trí thông minh nhân tạo AI con người, điện tử số và sống số
Có lẽ bạn chưa biết Meta có thể dừng phát triển các hệ thống AI ‘quá rủi ro’!
Rất có thể bạn chưa chắc chắn ! Cân Điện Tử Công Nghiệp chuyên chế tạo và phân phối những loại cân bàn 150kg công nghiệp số 1 tại Tp. Hồ Chí Minh. Hãy đến ngay website thiết bị đo lường của chúng tôi và trải nghiệm sản phẩm cân và thiết bị cân. Sản xuất và kinh doanh với sản phẩm cân điện tử và thiết bị đo lường