Các công ty AI hàng đầu của Mỹ chính thức cam kết tuân theo các tiêu chuẩn mới về an toàn, bảo mật và tin cậy
- Thứ năm - 17/08/2023 12:05
- |In ra
- |Đóng cửa sổ này
7 công ty - Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI - chính thức cam kết tuân theo các tiêu chuẩn mới về an toàn, bảo mật và tin cậy tại cuộc gặp với Tổng thống Hoa Kỳ Joe Biden tại Nhà Trắng mới đây.
Tổng thống Biden gặp gỡ các công ty AI hàng đầu của Mỹ
Các công ty AI lớn ở Hoa Kỳ đã đồng ý với các biện pháp bảo vệ tự nguyện đối với sự phát triển của công nghệ, Nhà Trắng mới đây đã công bố cam kết quản lý rủi ro của các công cụ mới ngay cả khi chúng cạnh tranh về tiềm năng của AI. Amazon, Google và Meta nằm trong số các công ty đã công bố các hướng dẫn khi họ chạy đua để vượt mặt nhau bằng các phiên bản AI.
“Chúng ta phải sáng suốt và cảnh giác về những mối đe dọa xuất hiện từ các công nghệ mới nổi có thể gây ra đối với nền dân chủ và các giá trị của chúng ta”, ông Biden nói trong một bài phát biểu ngắn gọn từ Phòng Roosevelt tại Nhà Trắng. “Đây là một trách nhiệm nghiêm trọng; chúng ta phải làm cho đúng”.
Thông báo được đưa ra khi các công ty đang chạy đua với nhau bằng các phiên bản AI cung cấp những cách mới mạnh mẽ để tạo văn bản, ảnh, nhạc và video mà không cần đầu vào của con người. Nhưng những bước nhảy vọt về công nghệ đã làm dấy lên lo ngại về sự lan truyền của thông tin sai lệch và những cảnh báo nghiêm trọng về các rủi ro khi AI trở nên tinh vi và giống con người hơn.
Tổng thống Hoa Kỳ Joe Biden và các công ty Microsoft, Meta, Google, OpenAI, Amazon, Anthropic và Inflection đồng ý nhấn mạnh "an toàn, bảo mật và tin cậy" khi phát triển công nghệ AI:
• An toàn: Các công ty đã đồng ý "kiểm tra tính an toàn và khả năng của các hệ thống AI của họ, đưa chúng vào thử nghiệm bên ngoài, đánh giá các rủi ro sinh học, an ninh mạng và xã hội tiềm ẩn của chúng và công khai kết quả của những đánh giá đó".
• Bảo mật: Các công ty cũng cho biết họ sẽ bảo vệ các sản phẩm AI của mình "chống lại các mối đe dọa từ mạng và nội bộ" đồng thời chia sẻ "các tiêu chuẩn và phương pháp hay nhất để ngăn chặn việc lạm dụng, giảm thiểu rủi ro cho xã hội và bảo vệ an ninh quốc gia".
• Tin cậy: Một trong những thỏa thuận lớn nhất được đảm bảo là các công ty này giúp mọi người dễ dàng biết liệu hình ảnh có phải là bản gốc, bị thay đổi hoặc do AI tạo ra hay không. Họ cũng sẽ đảm bảo rằng AI không thúc đẩy sự phân biệt đối xử hoặc thiên vị, họ sẽ bảo vệ trẻ em khỏi bị tổn hại và sẽ sử dụng AI để giải quyết các thách thức như biến đổi khí hậu và ung thư.
Sự xuất hiện của ChatGPT của OpenAI vào cuối năm 2022 là khởi đầu cho sự bùng nổ của các công ty công nghệ lớn phát hành các công cụ AI sáng tạo cho đại chúng. GPT-4 của OpenAI đã ra mắt vào giữa tháng 3. Đây là phiên bản mới nhất của mô hình ngôn ngữ lớn cung cấp năng lượng cho chatbot ChatGPT AI, trong số những thứ khác đủ tiên tiến để vượt qua kỳ thi luật sư. Tuy nhiên, Chatbot có xu hướng đưa ra các câu trả lời không chính xác và đôi khi là các nguồn không tồn tại. Khi việc áp dụng các công cụ này bùng nổ, các vấn đề tiềm ẩn của chúng lại được chú ý - bao gồm việc truyền bá thông tin sai lệch và làm sâu sắc thêm thành kiến và bất bình đẳng.
Các biện pháp bảo vệ tự nguyện chỉ là bước đầu tiên, mang tính thăm dò khi Washington và các chính phủ trên khắp thế giới tìm cách đưa ra các khuôn khổ pháp lý và quy định cho sự phát triển của AI. Các thỏa thuận bao gồm thử nghiệm các sản phẩm để tìm rủi ro bảo mật và sử dụng hình mờ để đảm bảo người tiêu dùng có thể phát hiện tài liệu do AI tạo ra.
Nhà Trắng không đưa ra thông tin chi tiết nào về sắc lệnh hành pháp sắp tới của Tổng thống nhằm giải quyết một vấn đề khác: làm thế nào để kiểm soát khả năng của Trung Quốc và các đối thủ khác nắm được các chương trình AI mới hoặc các thành phần được sử dụng để phát triển chúng. Lệnh này dự kiến sẽ liên quan đến các hạn chế mới đối với chất bán dẫn tiên tiến và hạn chế xuất khẩu các mô hình ngôn ngữ lớn. Những thứ đó rất khó bảo mật - nhiều phần mềm có thể vừa vặn, được nén trên một ổ USB.
Meta cho biết họ hoan nghênh thỏa thuận của Nhà Trắng. Công ty đã ra mắt thế hệ thứ hai của mô hình ngôn ngữ lớn AI của mình, Llama 2, biến nó thành nguồn mở và miễn phí. "Khi chúng tôi phát triển các mô hình AI mới, các công ty công nghệ nên minh bạch về cách hệ thống của họ hoạt động và hợp tác chặt chẽ giữa các ngành, chính phủ, học viện và xã hội dân sự", Nick Clegg, Chủ tịch phụ trách các vấn đề toàn cầu của Meta cho biết. “Chúng là bước đầu tiên quan trọng trong việc đảm bảo các rào cản có trách nhiệm được thiết lập cho AI và tạo ra một hình mẫu cho các chính phủ khác noi theo”.
Brad Smith, Phó Chủ tịch của Microsoft, cho biết trong một bài đăng trên blog: Thỏa thuận của Nhà Trắng sẽ "tạo ra một nền tảng để giúp đảm bảo lời hứa về AI đi trước những rủi ro của nó". Microsoft là đối tác của Meta's Llama 2. Đầu năm nay, hãng này cũng đã ra mắt tính năng tìm kiếm Bing do AI hỗ trợ, sử dụng ChatGPT và đang mang ngày càng nhiều công cụ AI vào Microsoft 365 và trình duyệt Edge của nó.
Thỏa thuận với Nhà Trắng là một phần trong "sự hợp tác liên tục của OpenAI với các chính phủ, tổ chức xã hội dân sự và những tổ chức khác trên khắp thế giới để thúc đẩy quản trị AI", Anna Makanju, Phó Chủ tịch phụ trách các vấn đề toàn cầu của OpenAI cho biết. "Các nhà hoạch định chính sách trên khắp thế giới đang xem xét các luật mới dành cho các hệ thống AI có khả năng cao. Các cam kết này đóng góp những thực tiễn cụ thể và cụ thể cho cuộc thảo luận đang diễn ra đó".
Tim Doyle, phát ngôn viên của Amazon, nói với CNET trong một tuyên bố gửi qua email rằng Amazon ủng hộ các cam kết tự nguyện "với tư cách là một trong những nhà phát triển và triển khai các công cụ và dịch vụ AI hàng đầu thế giới". "Chúng tôi tận tâm thúc đẩy sự đổi mới thay mặt cho khách hàng của mình đồng thời thiết lập và thực hiện các biện pháp bảo vệ cần thiết để bảo vệ người tiêu dùng và khách hàng". Amazon đã dựa vào AI cho podcast và âm nhạc cũng như trên Amazon Web Services.
P.A.T (NASATI), theo https://www.cnet.com/tech/google-meta-microsoft-amazon-make-pledge-on-ai-safety-and-security; https://www.nytimes.com/, 8/2023