OpenAI ra mắt công cụ nhân bản giọng nói
OpenAI vừa giới thiệu một công cụ nhân bản giọng nói, nhưng nói rằng sẽ kiểm soát chặt chẽ cho đến khi các biện pháp bảo vệ được áp dụng để ngăn chặn các tin giả âm thanh nhằm đánh lừa người nghe.
Theo một bài đăng trên blog OpenAI ngày 29/3, kết quả chia sẻ một thử nghiệm quy mô nhỏ của công cụ này cho biết, một mô hình có tên "Voice Engine" về cơ bản có thể sao chép lời nói của ai đó dựa trên mẫu âm thanh 15 giây.
OpenAI cho biết: “Chúng tôi nhận thấy rằng việc tạo ra nhân bản giọng nói có những rủi ro nghiêm trọng, điều này đặc biệt được quan tâm hàng đầu trong năm bầu cử”.
"Chúng tôi đang hợp tác với các đối tác Mỹ và quốc tế từ khắp các cơ quan chính phủ, truyền thông, giải trí, giáo dục, xã hội dân sự và các lĩnh vực khác" để tiếp thu các ý kiến phản hồi nhằm xây dựng phát triển công cụ này một cách an toàn..
Các nhà nghiên cứu tỏ ra lo ngại về việc lạm dụng tràn lan các ứng dụng do AI cung cấp trong năm bầu cử quan trọng vì các công cụ này ngày càng phổ biến, rẻ tiền, dễ sử dụng và khó kiểm soát.
Thừa nhận những vấn đề này, OpenAI cho biết họ đang “thực hiện một cách tiếp cận thận trọng và sáng suốt”.
Việc tiết lộ thận trọng này được đưa ra vài tháng sau khi một cố vấn chính trị làm việc cho chiến dịch tranh cử tổng thống lâu dài của đối thủ Đảng Dân chủ của ông Joe Biden thừa nhận đứng sau một cuộc gọi tự động mạo danh nhà lãnh đạo Mỹ.
Cuộc gọi do AI tạo ra có nội dung giống như giọng nói của ông Biden kêu gọi mọi người không bỏ phiếu trong cuộc bầu cử sơ bộ ở New Hampshire vào tháng 1.
Vụ việc đã khiến các chuyên gia lo ngại về làn sóng thông tin giả sâu do AI cung cấp trong cuộc đua vào Nhà Trắng năm 2024 cũng như trong các cuộc bầu cử quan trọng khác trên toàn cầu trong năm nay.
OpenAI cho biết, các đối tác thử nghiệm Voice Engine đã đồng ý với các quy tắc bao gồm yêu cầu sự đồng ý rõ ràng và đầy đủ thông tin của bất kỳ người nào có giọng nói bị trùng lặp khi sử dụng công cụ này.
Công ty cũng phải thông báo giọng nói nào là do AI tạo ra, công ty cho biết thêm.
OpenAI cho biết: “Chúng tôi đã triển khai một loạt biện pháp an toàn để theo dõi nguồn gốc của bất kỳ âm thanh nào do Voice Engine tạo ra, cũng như giám sát chủ động cách sử dụng nó”.