Với đề xuất của Ủy ban về một quy định, Châu Âu thiết lập quan điểm chung về các quy tắc về trí tuệ nhân tạo, với mục đích đưa EU trở thành quốc gia dẫn đầu thế giới và đảm bảo các công nghệ mới an toàn và đáng tin cậy
BỐI CẢNH
Việc sử dụng các công nghệ trí tuệ nhân tạo (AI) là cơ hội chính cho sự đổi mới và tăng trưởng của toàn bộ hệ thống kinh tế và xã hội châu Âu, mang lại lợi ích cho nhiều lĩnh vực, bao gồm chăm sóc sức khỏe, khu vực công, tài chính giao thông, nông nghiệp. Thông qua việc cải thiện khả năng dự báo, các hoạt động và tài nguyên được tối ưu hóa cũng như cung cấp dịch vụ được cá nhân hóa, việc sử dụng trí tuệ nhân tạo mang lại lợi thế cạnh tranh cho ngành công nghiệp Châu Âu.
Tuy nhiên, việc giới thiệu và sử dụng những công nghệ mới này cũng mang đến những rủi ro mới, những rủi ro này phải được giảm thiểu thông qua một khung pháp lý duy nhất và được chấp nhận rộng rãi. Trong bối cảnh này, Liên minh Châu Âu đã tiến hành một can thiệp pháp lý nhằm đảm bảo thị trường nội địa hoạt động và phát triển đúng đắn trước việc sử dụng ngày càng nhiều trí tuệ nhân tạo.
ĐỀ XUẤT VỀ QUY ĐỊNH CỦA CHÂU ÂU VỀ IA
Đề xuất cho một Quy định của Nghị viện và Hội đồng Châu Âu đặt ra các quy tắc hài hòa về trí tuệ nhân tạo (Đạo luật Trí tuệ Nhân tạo), được đưa ra vào tháng 4 năm 2021, nhằm đảm bảo rằng các hệ thống trí tuệ nhân tạo được đưa vào thị trường EU là an toàn và đạo đức, tuân thủ pháp luật hiện hành về các quyền cơ bản, cũng như các giá trị của Liên minh.
Đề xuất tuân theo cách tiếp cận dựa trên rủi ro, thiết lập một khuôn khổ pháp lý mạnh mẽ và linh hoạt nhằm đảm bảo sự chắc chắn về mặt pháp lý và tạo điều kiện thuận lợi cho đầu tư và đổi mới trong lĩnh vực trí tuệ nhân tạo.
Những điểm chính của đề xuất bao gồm:
- định nghĩa về hệ thống AI, với các tiêu chí rõ ràng để phân biệt AI với các hệ thống phần mềm đơn giản hơn;
- phân loại bốn cấp độ rủi ro: rủi ro không thể chấp nhận, rủi ro cao, rủi ro hạn chế và rủi ro tối thiểu;
- định nghĩa về các hoạt động AI bị cấm;
- xác định các hệ thống AI có rủi ro cao đối với sức khỏe và an toàn hoặc các quyền cơ bản của cá nhân, cùng với việc xác định các yêu cầu và nghĩa vụ cụ thể đối với người dùng và nhà cung cấp;
- thiết lập khung hoạt động cho cơ quan được thông báo tham gia với tư cách là bên thứ ba độc lập trong quy trình đánh giá sự phù hợp;
- triển khai hệ thống giám sát sau thị trường khi hệ thống IA có mặt trên thị trường.
Luật được đề xuất là một phần của Cách tiếp cận của châu Âu về AI, nhằm thúc đẩy đổi mới và tăng cường đầu tư kinh doanh vào công nghệ mới, đồng thời bảo vệ sự an toàn của người dân và thị trường.
ĐIỀU GÌ MONG ĐỢI
Trong tương lai gần, dự kiến sẽ có những thay đổi quan trọng trong bối cảnh quy định kỷ luật việc thiết kế và sử dụng các hệ thống trí tuệ nhân tạo. Các tiêu chuẩn mới và cơ cấu quản trị mới sẽ được thiết lập ở cấp quốc gia và quốc tế, đồng thời các Cơ quan được thông báo được ủy quyền thực hiện đánh giá sự phù hợp theo các tiêu chuẩn mới sẽ đi vào hoạt động.
Ente Certificazione Macchine mở rộng hoạt động sang các hệ thống trí tuệ nhân tạo. ECM, luôn chú ý đến những thay đổi của thị trường và môi trường pháp lý, thúc đẩy đổi mới công nghệ bằng cách đảm bảo các dịch vụ thử nghiệm và chứng nhận chuyên nghiệp và tiên tiến cho các công ty. Chúng tôi đang làm việc để đạt được tính chuyên nghiệp và kiến thức chuyên môn trong lĩnh vực mới nổi này với mục đích, trong tương lai gần, đạt được chỉ định là cơ quan được thông báo và thực hiện đánh giá sự phù hợpbắt buộc theo các chỉ thị và tiêu chuẩn hiện hành sẽ có hiệu lực.
Để biết thêm thông tin về chủ đề này, vui lòng liên hệ với chúng tôi tại:
Paolo Bernardoni – Giám đốc bán hàng ECM
paolo@entecerma.it | (+39) 345 9938661