Trong một sự kiện gần đây của Cục Dự trữ Liên bang Mỹ (FED) về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO OpenAI – công ty phát triển ChatGPT, đã lên tiếng cảnh báo về những rủi ro tiềm ẩn mà thế giới có thể phải đối mặt do sự phát triển nhanh chóng của công nghệ AI.
Ông Altman bày tỏ lo ngại sâu sắc về khả năng giả mạo giọng nói và hình ảnh bằng AI, điều mà theo ông, đang đạt đến mức có thể vượt qua nhiều hình thức xác thực hiện nay. “Hiện vẫn có các tổ chức tài chính chấp nhận giọng nói là cách xác minh để chuyển tiền hoặc thực hiện hành động quan trọng, điều này tôi coi là ‘thực sự nguy hiểm'”, ông Altman nói. Theo ông, AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực, trừ mật khẩu.
Không chỉ dừng lại ở đó, ông Altman cũng bày tỏ lo ngại về viễn cảnh siêu AI bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ. Ông lo lắng về việc một kẻ xấu tạo ra siêu AI trước phần còn lại của thế giới và dùng nó để tấn công lưới điện hay chế tạo vũ khí sinh học. “Thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, điều này có thể không thể phân biệt được với người thật”
Song song với việc cảnh báo về những rủi ro, ông Altman cũng lên tiếng về việc tìm kiếm giải pháp kiểm soát AI. Ông ủng hộ sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông kỳ vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ.
Ông Altman khẳng định OpenAI không phát triển các công cụ tạo video hay giọng nói giả mạo, nhưng ông thừa nhận các công nghệ đó đang tiến bộ rất nhanh, kể cả bên ngoài nước Mỹ. Ông lo lắng về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin.
Trước đó, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Gần đây, các chuyên gia tại Việt Nam cũng lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng, mục đích của người sản xuất/phát tán sẽ có các lỗi và quy định xử lý riêng.
Về vấn đề này, các chuyên gia an ninh mạng cũng như các nhà quản lý đang nỗ lực tìm kiếm giải pháp để hạn chế những rủi ro liên quan đến deepfake và AI. Mới đây, một số công ty công nghệ lớn cũng đã công bố các giải pháp nhằm phát hiện và ngăn chặn deepfake.
Với sự phát triển không ngừng của công nghệ AI, thế giới đang đứng trước ngưỡng cửa của một kỷ nguyên mới, đồng thời cũng đối mặt với nhiều thách thức. Vì vậy, việc tìm kiếm giải pháp kiểm soát và quản lý AI đang trở thành một vấn đề cấp thiết trên toàn cầu.