Đóng quảng cáo

Lĩnh vực công nghệ đang bị đe dọa bởi một số yếu tố. Ví dụ: người dùng lo sợ phần mềm độc hại hoặc mất quyền riêng tư. Nhưng theo những nhân vật có ảnh hưởng trong ngành công nghệ, chúng ta không nên lo lắng quá nhiều về bản thân yếu tố con người mà thay vào đó là mối liên hệ của nó với trí tuệ nhân tạo. Tại Diễn đàn Kinh tế Thế giới năm nay ở Davos, các giám đốc điều hành của một số công ty công nghệ lớn đã kêu gọi ban hành quy định lập pháp cho ngành. Lý do của họ để làm như vậy là gì?

“Trí tuệ nhân tạo là một trong những điều sâu sắc nhất mà nhân loại chúng ta đang nghiên cứu. Nó có chiều sâu hơn cả lửa và điện.” Giám đốc điều hành của Alphabet Inc. cho biết vào thứ Tư tuần trước tại Diễn đàn Kinh tế Thế giới. Sundar Pichai cho biết thêm rằng quy định về trí tuệ nhân tạo đòi hỏi phải có khuôn khổ xử lý toàn cầu. Giám đốc Microsoft Satya Nadella và giám đốc IBM Ginni Rometty cũng đang kêu gọi tiêu chuẩn hóa các quy tắc liên quan đến việc sử dụng trí tuệ nhân tạo. Theo Nadella, ngày nay, hơn ba mươi năm trước, Hoa Kỳ, Trung Quốc và Liên minh Châu Âu cần thiết lập các quy tắc xác định tầm quan trọng của trí tuệ nhân tạo đối với xã hội chúng ta và thế giới.

Những nỗ lực của các công ty riêng lẻ nhằm thiết lập các quy tắc đạo đức cho trí tuệ nhân tạo của riêng họ trước đây đã vấp phải sự phản đối không chỉ từ nhân viên của các công ty này. Ví dụ: Google đã phải rút khỏi chương trình bí mật của chính phủ vào năm 2018 Project Maven, chương trình sử dụng công nghệ để phân tích hình ảnh từ máy bay không người lái quân sự, sau phản ứng dữ dội. Stefan Heumann của tổ chức tư vấn Stiftung Neue Verantwortung có trụ sở tại Berlin, liên quan đến những tranh cãi về đạo đức xung quanh trí tuệ nhân tạo, nói rằng các tổ chức chính trị nên đặt ra các quy tắc chứ không phải chính các công ty.

Loa thông minh Google Home sử dụng trí tuệ nhân tạo

Làn sóng phản đối trí tuệ nhân tạo hiện nay có lý do rõ ràng cho thời điểm này. Chỉ trong vài tuần nữa, Liên minh Châu Âu phải thay đổi kế hoạch của mình đối với luật pháp liên quan. Ví dụ, điều này có thể bao gồm các quy định liên quan đến phát triển trí tuệ nhân tạo trong những lĩnh vực được gọi là có rủi ro cao như chăm sóc sức khỏe hoặc vận tải. Ví dụ, theo các quy định mới, các công ty sẽ phải ghi lại trong khuôn khổ minh bạch cách họ xây dựng hệ thống AI của mình.

Liên quan đến trí tuệ nhân tạo, một số vụ bê bối đã xuất hiện trong quá khứ - một trong số đó là vụ Cambridge Analytica. Trong công ty Amazon, nhân viên đã nghe lén người dùng thông qua trợ lý kỹ thuật số Alexa và vào mùa hè năm ngoái, một vụ bê bối lại nổ ra do công ty Google - hay nền tảng YouTube - đã thu thập dữ liệu từ trẻ em dưới mười ba tuổi. mà không có sự đồng ý của cha mẹ.

Trong khi một số công ty im lặng về chủ đề này, theo tuyên bố của phó chủ tịch Nicola Mendelsohn, Facebook gần đây đã thiết lập các quy tắc riêng của mình, tương tự như quy định GDPR của châu Âu. Mendelsohn cho biết trong một tuyên bố rằng đây là kết quả của việc Facebook thúc đẩy quy định toàn cầu. Keith Enright, người phụ trách quyền riêng tư tại Google, cho biết tại một hội nghị gần đây ở Brussels rằng công ty hiện đang tìm cách giảm thiểu lượng dữ liệu người dùng cần thu thập. “Nhưng tuyên bố phổ biến rộng rãi là các công ty như của chúng tôi đang cố gắng thu thập càng nhiều dữ liệu càng tốt,” ông nói thêm và nói thêm rằng việc nắm giữ dữ liệu không mang lại bất kỳ giá trị nào cho người dùng là rất rủi ro.

Các cơ quan quản lý dường như không đánh giá thấp việc bảo vệ dữ liệu người dùng trong mọi trường hợp. Hoa Kỳ hiện đang nghiên cứu luật liên bang tương tự như GDPR. Dựa trên chúng, các công ty sẽ phải nhận được sự đồng ý của khách hàng để cung cấp dữ liệu của họ cho bên thứ ba.

Siri FB

Nguồn: Bloomberg

.