Theo thông báo gửi đến các cơ quan chức năng Australia, Google cho biết trong vòng gần một năm qua, họ đã nhận được 258 đơn khiếu nại toàn cầu liên quan đến việc Gemini bị lợi dụng vào các mục đích xấu.
Ngoài ra, Google cũng nhận được 86 báo cáo từ người dùng về việc phần mềm này đang bị lạm dụng để sản xuất các nội dung liên quan đến lạm dụng trẻ em. Phản ánh này đã thu hút sự chú ý đặc biệt của Ủy ban An toàn Điện tử Australia (ACMA), cơ quan giám sát và điều chỉnh các công ty công nghệ tại quốc gia này.
Ủy viên Ủy ban An toàn Điện tử, Julie Inman Grant, đã nhận xét rằng báo cáo từ Google là cái nhìn đầu tiên trên thế giới về cách người dùng có thể khai thác công nghệ AI để tạo ra các nội dung độc hại, phi pháp. Bà cũng nhấn mạnh sự cần thiết phải xây dựng và kiểm tra tính hiệu quả của các biện pháp bảo vệ trong việc ngăn chặn hành vi sản xuất những nội dung nguy hại và giả mạo này.

Để đối phó với tình trạng này, Google đã sử dụng tính năng "so khớp", một hệ thống tự động giúp đối chiếu các hình ảnh mới tải lên với hình ảnh đã được xác minh, nhằm phát hiện và loại bỏ các nội dung lạm dụng trẻ em do Gemini tạo ra. Tuy nhiên, theo Ủy ban An toàn Điện tử Australia, Google chưa áp dụng hệ thống tương tự để xử lý các nội dung khủng bố và bạo lực cực đoan do Gemini tạo ra, điều này gây ra mối lo ngại về khả năng giám sát và kiểm soát nội dung từ phần mềm AI này.
Theo quy định hiện hành của Australia, các công ty công nghệ phải báo cáo định kỳ các nỗ lực giảm thiểu tác hại của công nghệ mà họ phát triển. Nếu không thực hiện đầy đủ, các công ty này có thể bị xử phạt. Gần đây, Ủy ban An toàn Điện tử Australia đã phạt Telegram và Twitter (nay là X) vì những thiếu sót trong báo cáo của họ. X đã kháng cáo khoản tiền phạt 610.500 AUD (382.000 USD), trong khi Telegram cũng có kế hoạch kháng cáo mức phạt đối với kênh này.
Sự ra đời của các công cụ AI mạnh mẽ như ChatGPT của OpenAI vào cuối năm 2022 đã gây ra những lo ngại sâu sắc từ các cơ quan quản lý trên toàn cầu. Các cơ quan này đang kêu gọi các biện pháp hiệu quả để ngăn chặn việc sử dụng AI cho các mục đích xấu như kích động khủng bố, lừa đảo, tạo ra nội dung khiêu dâm giả mạo và các hành vi lạm dụng khác.
Các cuộc thảo luận về việc điều chỉnh và kiểm soát AI đang diễn ra mạnh mẽ ở nhiều quốc gia, nhằm đảm bảo rằng công nghệ này phục vụ cho lợi ích của cộng đồng mà không gây ra tác hại đáng kể.