Le hướng dẫn phát triển an toàn hệ thống trí tuệ nhân tạo chúng được thiết kế để hướng dẫn cụ thể cho các nhà phát triển trong quá trình thiết kế, phát triển, triển khai và vận hành hệ thống AI, đồng thời đảm bảo rằng bảo mật vẫn là một thành phần quan trọng trong suốt vòng đời của chúng. Tuy nhiên, các bên liên quan khác trong các dự án AI cũng sẽ thấy thông tin này hữu ích.
Những hướng dẫn này được đưa ra ngay sau khi các nhà lãnh đạo thế giới cam kết phát triển trí tuệ nhân tạo một cách an toàn và có trách nhiệm tại Hội nghị Thượng đỉnh An toàn AI vào đầu tháng XNUMX.
Nguyên tắc phát triển hệ thống AI an toàn đưa ra các khuyến nghị để đảm bảo rằng các mô hình AI – dù được xây dựng từ đầu hay dựa trên các mô hình hoặc API hiện có từ các công ty khác – “hoạt động như dự định, sẵn sàng khi cần và hoạt động mà không tiết lộ dữ liệu nhạy cảm cho các bên trái phép”. . “
Chìa khóa của vấn đề này là cách tiếp cận “an toàn theo mặc định” được NCSC, CISA, Viện Tiêu chuẩn và Công nghệ Quốc gia và nhiều cơ quan an ninh mạng quốc tế khác ủng hộ trong các khuôn khổ hiện có. Nguyên tắc của các khuôn khổ này bao gồm:
Theo NCSC, tổng cộng 21 cơ quan, bộ ngành từ tổng số 18 quốc gia đã xác nhận rằng họ sẽ phê duyệt và đồng niêm phong các hướng dẫn mới. Điều này bao gồm Cơ quan An ninh Quốc gia và Cục Điều tra Liên bang tại Hoa Kỳ, cũng như Trung tâm An ninh mạng Canada, Cơ quan An ninh mạng Pháp, Văn phòng An ninh mạng Liên bang Đức, Singapore Cơ quan An ninh mạng và Trung tâm Sự cố Quốc gia Nhật Bản. Chuẩn bị và chiến lược an ninh mạng.
Lindy Cameron, giám đốc điều hành của NCSC, cho biết: một thông cáo báo chí : “Chúng tôi biết rằng trí tuệ nhân tạo đang phát triển với tốc độ chóng mặt và cần có hành động phối hợp quốc tế, giữa chính phủ và ngành công nghiệp, để theo kịp. ”.
Các hướng dẫn phát triển an toàn hệ thống AI được cấu trúc thành bốn phần, mỗi phần tương ứng với các giai đoạn khác nhau trong vòng đời phát triển của hệ thống AI: thiết kế an toàn, phát triển an toàn, triển khai an toàn cũng như vận hành và bảo trì an toàn.
Các nguyên tắc này có thể áp dụng cho tất cả các loại hệ thống AI chứ không chỉ các mô hình “biên giới” đã được thảo luận rộng rãi tại Hội nghị Thượng đỉnh An toàn AI được tổ chức tại Vương quốc Anh vào ngày 1 và 2 tháng 2023 năm XNUMX. Các nguyên tắc này cũng có thể áp dụng cho tất cả các chuyên gia làm việc trong và xung quanh AI, bao gồm các nhà phát triển, nhà khoa học dữ liệu, nhà quản lý, người ra quyết định và “chủ sở hữu rủi ro” AI khác.
“Chúng tôi hướng tới các hướng dẫn chủ yếu dành cho các nhà cung cấp hệ thống AI sử dụng các mô hình do một tổ chức lưu trữ (hoặc sử dụng API bên ngoài), nhưng chúng tôi khuyến khích tất cả các bên quan tâm… đọc những hướng dẫn này để giúp họ đưa ra các quyết định sáng suốt về thiết kế, phát triển, triển khai và vận hành hệ thống AI của mình. hệ thống trí tuệ nhân tạo”, anh ấy nói NCSC.
Trong Hội nghị Thượng đỉnh An toàn AI, được tổ chức tại địa điểm lịch sử Công viên Bletchley ở Buckinghamshire, Anh, đại diện của 28 quốc gia đã ký thỏa thuận Tuyên bố của Bletchley về An toàn AI , trong đó nhấn mạnh tầm quan trọng của việc thiết kế và triển khai các hệ thống trí tuệ nhân tạo một cách an toàn và có trách nhiệm, nhấn mạnh vào sự hợp tác. và tính minh bạch.
Tuyên bố thừa nhận sự cần thiết phải giải quyết các rủi ro liên quan đến các mô hình AI tiên tiến, đặc biệt là trong các lĩnh vực như bảo mật máy tính và công nghệ sinh học, đồng thời hỗ trợ sự hợp tác quốc tế chặt chẽ hơn để đảm bảo việc sử dụng an toàn, có đạo đức và có lợiIA.
Michelle Donelan, thư ký khoa học và công nghệ của Anh, cho biết các hướng dẫn mới được công bố “sẽ đặt an ninh mạng vào trung tâm của sự phát triểntrí tuệ nhân tạo” từ khi thành lập đến khi triển khai.
Việc ban hành các hướng dẫn vềtrí tuệ nhân tạo đã được các chuyên gia và nhà phân tích hoan nghênh an ninh mạng.
Toby Lewis, người đứng đầu toàn cầu về phân tích mối đe dọa tại Darktrace, đã defiđã hoàn thành hướng dẫn "một dự án chào mừng" cho hệ thống trí tuệ nhân tạo an toàn và đáng tin cậy.
Bình luận qua email, Lewis cho biết: “Tôi rất vui khi thấy rằng các hướng dẫn nêu bật sự cần thiết của trí tuệ nhân tạo bảo vệ dữ liệu và mô hình của họ khỏi những kẻ tấn công và người dùng AI áp dụng đúng cách sự thông minh nhân tạo cho đúng nhiệm vụ. Những người đang phát triển AI nên tiến xa hơn và xây dựng niềm tin bằng cách hướng dẫn người dùng về hành trình làm thế nào AI của họ đạt được câu trả lời. Với sự tự tin và tin tưởng, chúng tôi sẽ nhận ra lợi ích của AI nhanh hơn và cho nhiều người hơn.”
Georges Anidjar, phó chủ tịch khu vực Nam Âu tại Informatica, cho biết việc xuất bản các hướng dẫn này đánh dấu “một bước quan trọng trong việc giải quyết các thách thức an ninh mạng vốn có trong lĩnh vực đang phát triển nhanh chóng này”.
BlogInnovazione.it
Một ca phẫu thuật tạo hình mắt bằng cách sử dụng trình xem thương mại Apple Vision Pro đã được thực hiện tại Phòng khám đa khoa Catania…
Phát triển kỹ năng vận động tinh thông qua tô màu giúp trẻ chuẩn bị cho những kỹ năng phức tạp hơn như viết. Để tô màu…
Ngành hải quân là một cường quốc kinh tế toàn cầu thực sự, đang hướng tới thị trường 150 tỷ...
Thứ Hai tuần trước, Financial Times đã công bố một thỏa thuận với OpenAI. FT cấp phép cho hoạt động báo chí đẳng cấp thế giới…