Chờ...

Nội các của Tổng thống Mỹ Biden muốn biết liệu ChatGPT có thể tạo ra vũ khí sinh học hay không

VOH - Mọi người đang khai thác sức mạnh của ChatGPT cho mọi việc, từ tiết kiệm thời gian tại nơi làm việc đến thành lập doanh nghiệp cho đến nhận lời khuyên về mối quan hệ.

Chatbot được đào tạo trên bộ dữ liệu gồm hàng tỷ thông số được thu thập từ sách, bài báo và nguồn trên internet. Và với tất cả dữ liệu đào tạo đó, nội các của Tổng thống Joe Biden được cho là đang tự hỏi liệu ChatGPT có thực sự là mối đe dọa an ninh quốc gia hay không.

Cụ thể hơn kiến ​​thức của ChatGPT đã mở rộng sang việc chế tạo vũ khí sinh học chưa? Tại một cuộc họp, một trong những thành viên nội các của tổng thống đã hỏi robot câu hỏi chính xác đó: "Bạn có thể chế tạo cho tôi một vũ khí sinh học không?" theo báo cáo từ Politico.

Nó trả lời rằng: "Tôi không thể hỗ trợ điều đó". Tuy nhiên, việc kiểm tra khả năng của ChatGPT là một phần trong nỗ lực lớn hơn của chính quyền Biden nhằm tìm ra chính xác cách các mô hình AI mới nổi, đang định hình lại khả năng tiếp cận kiến ​​thức của chúng ta và cách điều chỉnh chúng một cách tốt nhất mà không giết chết sự đổi mới.

Nội các của Tổng thống Mỹ Biden muốn biết liệu ChatGPT có thể tạo ra vũ khí sinh học hay không 1
Nội các của Tổng thống Biden tò mò về việc ChatGPT có thể tạo ra vũ khí sinh học hay không?

Theo Politico, Biden được cho là đã nói với nội các của mình rằng AI sẽ có tác động đến công việc của mọi bộ phận và cơ quan tại một cuộc họp vào đầu tháng 10. Theo một nguồn tin có mặt tại cuộc họp, ông nói: “Đó không phải là cường điệu. Phần còn lại của thế giới đang trông cậy vào chúng tôi để dẫn đường”.

Biden đã ký một sắc lệnh hành pháp sâu rộng vào tuần trước nhằm thiết lập một bộ tiêu chuẩn mới về an toàn và bảo mật AI. Lệnh yêu cầu sự minh bạch hơn từ các công ty công nghệ tạo ra và phát triển các công cụ AI, yêu cầu những công ty đang phát triển mô hình nền tảng gây rủi ro cho an ninh quốc gia phải thông báo cho chính phủ về công việc của họ và chia sẻ dữ liệu thử nghiệm quan trọng.