Một thỏa thuận quốc tế có sự tham gia của 18 quốc gia về trí tuệ nhân tạo an toàn vừa được công bố. Đây là nỗ lực mới nhất của các nước trong việc xây dựng quy định về quản lý phát triển trí tuệ nhân tạo.
Một năm qua, những ứng dụng trí tuệ nhân tạo như ChatGPT đã được nhiều công ty lớn sử dụng và tác động đến nhiều ngành, lĩnh vực, nghề nghiệp trong cuộc sống.
Theo một nghiên cứu của Statista, thị trường AI toàn cầu sẽ tăng trưởng 54% mỗi năm.
Trí tuệ nhân tạo có thể xử lý được khối lượng lớn công việc. Với những dữ liệu lớn hơn, rắc rối hơn cũng như công nghệ Ai có thể đưa ra dự đoán chính xác hơn con người. Điều này chính là một ưu điểm lớn của công nghệ Ai hiện nay.
Bên cạnh đó công nghệ này cũng có những nhược điểm riêng biệt. Việc sử dụng AI tốn kém rất nhiều khi xử lý một lượng lớn dữ liệu mà lập trình AI yêu cầu. Khả năng giải thích sẽ là một trở ngại trong việc sử dụng AI trong các lĩnh vực hoạt động theo các yêu cầu phải tuân thủ quy định nghiêm ngặt.
Và cũng có những lo ngại về vấn đề an ninh, bảo mật khi chưa có những quy định cụ thể trong từng lĩnh vực mà AI được áp dụng. Chính vì vậy, một thỏa thuận quốc tế đã được diễn ra để ứng phó kịp thời với những phát triển "vũ bão" của AI trong tương lai.
Thỏa thuận có sự tham gia của 18 quốc gia, trong đó có Mỹ, Anh, Đức, Australia, Singapore.... Thỏa thuận nhấn mạnh yếu tố quan trọng nhất ngay từ giai đoạn thiết kế các sản phẩm AI là an ninh, an toàn.
Đây được coi là thỏa thuận chi tiết đầu tiên về việc bảo đảm công nghệ AI an toàn ngay từ khâu thiết kế.
Theo thỏa thuận dài 20 trang, các công ty thiết kế và sử dụng AI cần phát triển và triển khai công nghệ tiên tiến này theo cách đảm bảo an toàn cho khách hàng và công chúng nói chung.
Thỏa thuận không mang tính ràng buộc và chủ yếu đưa ra các khuyến nghị chung như giám sát hành vi lạm dụng AI, bảo vệ dữ liệu...