Các bài viết

Hướng dẫn mới về bảo mật AI do NCSC, CISA và các cơ quan quốc tế khác công bố

Hướng dẫn Phát triển Hệ thống AI An toàn được viết để giúp các nhà phát triển đảm bảo rằng tính năng bảo mật được tích hợp vào trọng tâm của các mô hình AI mới.

Trung tâm An ninh mạng Quốc gia Vương quốc Anh, Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng Hoa Kỳ cùng các cơ quan quốc tế từ 16 quốc gia khác đã công bố hướng dẫn mới về bảo mật của hệ thống trí tuệ nhân tạo.

Le hướng dẫn phát triển an toàn hệ thống trí tuệ nhân tạo chúng được thiết kế để hướng dẫn cụ thể cho các nhà phát triển trong quá trình thiết kế, phát triển, triển khai và vận hành hệ thống AI, đồng thời đảm bảo rằng bảo mật vẫn là một thành phần quan trọng trong suốt vòng đời của chúng. Tuy nhiên, các bên liên quan khác trong các dự án AI cũng sẽ thấy thông tin này hữu ích.

Những hướng dẫn này được đưa ra ngay sau khi các nhà lãnh đạo thế giới cam kết phát triển trí tuệ nhân tạo một cách an toàn và có trách nhiệm tại Hội nghị Thượng đỉnh An toàn AI vào đầu tháng XNUMX.

Tóm tắt: hướng dẫn phát triển hệ thống AI an toàn

Nguyên tắc phát triển hệ thống AI an toàn đưa ra các khuyến nghị để đảm bảo rằng các mô hình AI – dù được xây dựng từ đầu hay dựa trên các mô hình hoặc API hiện có từ các công ty khác – “hoạt động như dự định, sẵn sàng khi cần và hoạt động mà không tiết lộ dữ liệu nhạy cảm cho các bên trái phép”. . “

Chìa khóa của vấn đề này là cách tiếp cận “an toàn theo mặc định” được NCSC, CISA, Viện Tiêu chuẩn và Công nghệ Quốc gia và nhiều cơ quan an ninh mạng quốc tế khác ủng hộ trong các khuôn khổ hiện có. Nguyên tắc của các khuôn khổ này bao gồm:

  • Làm chủ kết quả an toàn cho khách hàng.
  • Nắm bắt sự minh bạch và trách nhiệm giải trình triệt để.
  • Xây dựng cơ cấu tổ chức và lãnh đạo để “an toàn theo thiết kế” là ưu tiên hàng đầu của doanh nghiệp.

Theo NCSC, tổng cộng 21 cơ quan, bộ ngành từ tổng số 18 quốc gia đã xác nhận rằng họ sẽ phê duyệt và đồng niêm phong các hướng dẫn mới. Điều này bao gồm Cơ quan An ninh Quốc gia và Cục Điều tra Liên bang tại Hoa Kỳ, cũng như Trung tâm An ninh mạng Canada, Cơ quan An ninh mạng Pháp, Văn phòng An ninh mạng Liên bang Đức, Singapore Cơ quan An ninh mạng và Trung tâm Sự cố Quốc gia Nhật Bản. Chuẩn bị và chiến lược an ninh mạng.

Lindy Cameron, giám đốc điều hành của NCSC, cho biết: một thông cáo báo chí : “Chúng tôi biết rằng trí tuệ nhân tạo đang phát triển với tốc độ chóng mặt và cần có hành động phối hợp quốc tế, giữa chính phủ và ngành công nghiệp, để theo kịp. ”.

Đảm bảo bốn giai đoạn chính của vòng đời phát triển AI

Các hướng dẫn phát triển an toàn hệ thống AI được cấu trúc thành bốn phần, mỗi phần tương ứng với các giai đoạn khác nhau trong vòng đời phát triển của hệ thống AI: thiết kế an toàn, phát triển an toàn, triển khai an toàn cũng như vận hành và bảo trì an toàn.

  • Thiết kế an toàn đưa ra hướng dẫn cụ thể cho giai đoạn thiết kế của vòng đời phát triển hệ thống AI. Nó nhấn mạnh tầm quan trọng của việc nhận biết rủi ro và tiến hành lập mô hình mối đe dọa, cũng như xem xét các chủ đề khác nhau và sự cân bằng khi thiết kế hệ thống và mô hình.
  • Phát triển an toàn bao gồm giai đoạn phát triển của vòng đời hệ thống AI. Các khuyến nghị bao gồm đảm bảo an ninh chuỗi cung ứng, duy trì tài liệu kỹ lưỡng và quản lý hiệu quả các nguồn lực cũng như nợ kỹ thuật.
  • Triển khai an toàn giải quyết giai đoạn triển khai của hệ thống AI. Các hướng dẫn trong trường hợp này liên quan đến việc bảo vệ cơ sở hạ tầng và các mô hình khỏi bị xâm phạm, đe dọa hoặc mất mát, defithiết lập các quy trình quản lý sự cố và áp dụng các nguyên tắc phát hành có trách nhiệm.
  • Vận hành và bảo trì an toàn chứa các chỉ dẫn về giai đoạn vận hành và bảo trì sau khi triển khai các mô hình trí tuệ nhân tạo. Nó bao gồm các khía cạnh như ghi nhật ký và giám sát hiệu quả, quản lý cập nhật và chia sẻ thông tin có trách nhiệm.

Hướng dẫn cho tất cả các hệ thống AI

Các nguyên tắc này có thể áp dụng cho tất cả các loại hệ thống AI chứ không chỉ các mô hình “biên giới” đã được thảo luận rộng rãi tại Hội nghị Thượng đỉnh An toàn AI được tổ chức tại Vương quốc Anh vào ngày 1 và 2 tháng 2023 năm XNUMX. Các nguyên tắc này cũng có thể áp dụng cho tất cả các chuyên gia làm việc trong và xung quanh AI, bao gồm các nhà phát triển, nhà khoa học dữ liệu, nhà quản lý, người ra quyết định và “chủ sở hữu rủi ro” AI khác.

“Chúng tôi hướng tới các hướng dẫn chủ yếu dành cho các nhà cung cấp hệ thống AI sử dụng các mô hình do một tổ chức lưu trữ (hoặc sử dụng API bên ngoài), nhưng chúng tôi khuyến khích tất cả các bên quan tâm… đọc những hướng dẫn này để giúp họ đưa ra các quyết định sáng suốt về thiết kế, phát triển, triển khai và vận hành hệ thống AI của mình. hệ thống trí tuệ nhân tạo”, anh ấy nói NCSC.

Kết quả Hội nghị Thượng đỉnh An toàn AI

Trong Hội nghị Thượng đỉnh An toàn AI, được tổ chức tại địa điểm lịch sử Công viên Bletchley ở Buckinghamshire, Anh, đại diện của 28 quốc gia đã ký thỏa thuận Tuyên bố của Bletchley về An toàn AI , trong đó nhấn mạnh tầm quan trọng của việc thiết kế và triển khai các hệ thống trí tuệ nhân tạo một cách an toàn và có trách nhiệm, nhấn mạnh vào sự hợp tác. và tính minh bạch.

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Tuyên bố thừa nhận sự cần thiết phải giải quyết các rủi ro liên quan đến các mô hình AI tiên tiến, đặc biệt là trong các lĩnh vực như bảo mật máy tính và công nghệ sinh học, đồng thời hỗ trợ sự hợp tác quốc tế chặt chẽ hơn để đảm bảo việc sử dụng an toàn, có đạo đức và có lợiIA.

Michelle Donelan, thư ký khoa học và công nghệ của Anh, cho biết các hướng dẫn mới được công bố “sẽ đặt an ninh mạng vào trung tâm của sự phát triểntrí tuệ nhân tạo” từ khi thành lập đến khi triển khai.

Phản ứng với các hướng dẫn AI này của ngành an ninh mạng

Việc ban hành các hướng dẫn vềtrí tuệ nhân tạo đã được các chuyên gia và nhà phân tích hoan nghênh an ninh mạng.

Toby Lewis, người đứng đầu toàn cầu về phân tích mối đe dọa tại Darktrace, đã defiđã hoàn thành hướng dẫn "một dự án chào mừng" cho hệ thống trí tuệ nhân tạo an toàn và đáng tin cậy.

Bình luận qua email, Lewis cho biết: “Tôi rất vui khi thấy rằng các hướng dẫn nêu bật sự cần thiết của trí tuệ nhân tạo bảo vệ dữ liệu và mô hình của họ khỏi những kẻ tấn công và người dùng AI áp dụng đúng cách sự thông minh nhân tạo cho đúng nhiệm vụ. Những người đang phát triển AI nên tiến xa hơn và xây dựng niềm tin bằng cách hướng dẫn người dùng về hành trình làm thế nào AI của họ đạt được câu trả lời. Với sự tự tin và tin tưởng, chúng tôi sẽ nhận ra lợi ích của AI nhanh hơn và cho nhiều người hơn.”

Georges Anidjar, phó chủ tịch khu vực Nam Âu tại Informatica, cho biết việc xuất bản các hướng dẫn này đánh dấu “một bước quan trọng trong việc giải quyết các thách thức an ninh mạng vốn có trong lĩnh vực đang phát triển nhanh chóng này”.

BlogInnovazione.it

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Bài viết gần đây

Sự can thiệp sáng tạo vào thực tế tăng cường, với người xem Apple tại Phòng khám đa khoa Catania

Một ca phẫu thuật tạo hình mắt bằng cách sử dụng trình xem thương mại Apple Vision Pro đã được thực hiện tại Phòng khám đa khoa Catania…

3 May 2024

Lợi ích của việc tô màu cho trẻ em - thế giới kỳ diệu dành cho mọi lứa tuổi

Phát triển kỹ năng vận động tinh thông qua tô màu giúp trẻ chuẩn bị cho những kỹ năng phức tạp hơn như viết. Để tô màu…

2 May 2024

Tương lai là đây: Ngành vận tải biển đang cách mạng hóa nền kinh tế toàn cầu như thế nào

Ngành hải quân là một cường quốc kinh tế toàn cầu thực sự, đang hướng tới thị trường 150 tỷ...

1 May 2024

Các nhà xuất bản và OpenAI ký thỏa thuận điều chỉnh luồng thông tin được Trí tuệ nhân tạo xử lý

Thứ Hai tuần trước, Financial Times đã công bố một thỏa thuận với OpenAI. FT cấp phép cho hoạt động báo chí đẳng cấp thế giới…

30 tháng tư 2024

Đọc Đổi mới bằng ngôn ngữ của bạn

Bản tin đổi mới
Đừng bỏ lỡ những tin tức quan trọng nhất về đổi mới. Đăng ký để nhận chúng qua email.

Theo chúng tôi