товары

Регулирование ИИ: 3 эксперта объясняют, почему это сложно и важно делать хорошо

Новые мощные системы искусственного интеллекта могут усилить мошенничество и дезинформацию, что приведет к массовым призывам к государственному регулированию. Но это легче сказать, чем сделать, и это может иметь непредвиденные последствия.

Примерное время чтения: 11 Minuti

От поддельные фотографии Дональда Трампа, арестованного полицией Нью-Йорка, чат-боту, описывающему одного ученый-компьютерщик очень жив, так как трагически погиб , способность систем нового поколения искусственный интеллект генеративное стремление создавать убедительные, но вымышленные тексты и изображения вызывает тревогу по поводу мошенничества со стероидами и дезинформации. Действительно, 29 марта 2023 года группа исследователей ИИ и отраслевых деятелей призвала отрасль приостановить дальнейшее обучение новейшим технологиям ИИ или, за исключением этого, правительства «ввести мораторий».

Генераторы изображений, такие как DALL-E , Середина пути e Стабильная диффузия и генераторы контента, такие как Bard , ChatGPT , шиншилла e ЛАМА – теперь доступны миллионам людей и не требуют технических знаний для использования.

Учитывая растущий ландшафт технологических компаний, развертывающих системы искусственного интеллекта и тестирующих их на людях, политикам следует задаться вопросом, следует ли и как регулировать появляющиеся технологии. The Conversation попросили трех экспертов по технической политике объяснить, почему регулирование ИИ является такой сложной задачей и почему так важно сделать все правильно.

Человеческие слабости и движущаяся цель

С. Шьям Сундар, профессор мультимедийных эффектов и директор Центра социально ответственного искусственного интеллекта, штат Пенсильвания.

Причина регулирования ИИ не в том, что технология вышла из-под контроля, а в том, что человеческое воображение несоразмерно. Подавляющее освещение в СМИ подпитывает иррациональные представления о возможностях и сознании ИИ. Эти убеждения основаны на « предвзятость автоматизации ” или о склонности терять бдительность, когда машины выполняют задачу. Примером является снижение бдительности у пилотов когда их самолет летит на автопилоте.

Многочисленные исследования в моей лаборатории показали, что когда машина, а не человек, идентифицируется как источник взаимодействия, это запускает мысленный ярлык в умах пользователей, который мы называем «машинной эвристикой».   . Это условное обозначение — вера в то, что машины точны, объективны, беспристрастны, непогрешимы и так далее. Это затуманивает суждение пользователя и заставляет пользователя чрезмерно доверять машинам. Однако недостаточно просто разочаровать людей в безошибочности ИИ, поскольку известно, что люди подсознательно предполагают наличие навыков, даже если технологии этого не требуют.

Исследования также показали, что люди относятся к компьютерам как к социальным существам когда машины демонстрируют хоть малейший намек на человечность, например, использование разговорного языка. В этих случаях люди применяют социальные правила человеческого взаимодействия, такие как вежливость и взаимность. Поэтому, когда компьютеры кажутся разумными, люди склонны слепо доверять им. Регулирование необходимо для того, чтобы продукты ИИ заслужили это доверие и не злоупотребляли им.

ИИ представляет собой уникальную проблему, потому что, в отличие от традиционных инженерных систем, разработчики не могут быть уверены в том, как системы ИИ будут работать. Когда с завода сошел традиционный автомобиль, инженеры точно знали, как он будет работать. Но с беспилотными автомобилями инженеры они никогда не могут быть уверены, как поведут себя в новых ситуациях .

Трудности в контроле за инновациями.

В последнее время тысячи людей по всему миру восхищались тем, что производят большие модели генеративного ИИ, такие как GPT-4 и DALL-E 2, в ответ на их предложения. Ни один из инженеров, участвовавших в разработке этих моделей ИИ, не мог точно сказать, что эти модели будут производить. Ситуация усложняется еще и тем, что эти модели меняются и развиваются при все большем взаимодействии.

Все это означает, что существует достаточный потенциал для осечек. Таким образом, многое зависит от того, как реализованы системы ИИ и какие предусмотрены средства правовой защиты в случае причинения вреда человеческим чувствам или благополучию. ИИ — это скорее инфраструктура, вроде автострады. Вы можете спроектировать его, чтобы формировать поведение людей в коллективе, но вам потребуются механизмы для борьбы со злоупотреблениями, такими как превышение скорости, и непредсказуемыми событиями, такими как несчастные случаи.

Разработчики ИИ также должны будут проявлять необычайную изобретательность, предсказывая, как может вести себя система, и пытаться предвидеть возможные нарушения социальных стандартов и обязанностей. Это означает, что необходимы нормативно-правовые или управленческие структуры, основанные на периодических проверках и проверке результатов и продуктов ИИ, хотя я считаю, что эти структуры также должны признавать, что разработчики систем не всегда могут нести ответственность за инциденты.

Сочетание «мягкого» и «жесткого» подходов

Кейсон Шмит, доцент кафедры общественного здравоохранения Техасского университета A&M

Регулировать искусственный интеллект сложно . Чтобы хорошо настроить ИИ, вам придется сначала defiзакончить ИИ и понять ожидаемые риски и преимущества ИИ. DefiЛегализация ИИ важна для определения того, что подпадает под действие закона. Но технологии искусственного интеллекта все еще развиваются, поэтому это сложно defiзакончить один defiстабильное юридическое определение.

Понимание рисков и преимуществ ИИ также важно. Хорошее регулирование должно максимизировать общественную выгоду при минимизации рисков. Однако приложения ИИ все еще появляются, поэтому трудно узнать или предсказать, какими могут быть будущие риски или выгоды. Эти типы неизвестных делают новые технологии, такие как искусственный интеллект, чрезвычайно сложно регулировать с традиционными законами и правилами.

Законодатели часто слишком медленно адаптируется к быстро меняющейся технологической среде. Кто-то новые законы устарели на момент их выпуска или принудительный. Без новых законов регуляторы они должны использовать старые законы к лицу новые проблемы . Иногда это приводит к правовые барьеры для социальные льготы o юридические лазейки для вредное поведение .

Мягкое право

"мягкий закон являются альтернативой традиционным «жестким законам» законодательным подходам, направленным на предотвращение конкретных нарушений. В рамках подхода «мягкого права» частная организация создает правила или стандарты для представителей отрасли. Они могут меняться быстрее, чем традиционное законодательство. Что делает многообещающие мягкие законы для новых технологий, потому что они могут быстро адаптироваться к новым приложениям и рискам. Однако, Мягкие законы могут означать мягкое правоприменение .

Меган Дорр , Дженнифер Вагнер e io (Кейсон Шмит) мы предлагаем третий способ: ИИ с авторским левом и Trusted Enforcement (CAITE) . Этот подход сочетает в себе две совершенно разные концепции интеллектуальной собственности: лицензии copyleft e patent troll.

Копировать левые лицензии

Лицензии copyleft позволяют легко использовать, повторно использовать или изменять контент в соответствии с условиями лицензии, например, программное обеспечение с открытым исходным кодом. Модель CAITE использовать лицензии copyleft требовать от пользователей ИИ соблюдения определенных этических принципов, таких как прозрачная оценка влияния предвзятости.

В нашей модели эти лицензии также передают доверенной третьей стороне законное право на принудительное исполнение нарушений лицензии. Это создает правоприменительную организацию, которая существует исключительно для обеспечения соблюдения этических стандартов ИИ и может частично финансироваться за счет штрафов за неэтичное поведение. Эта сущность похожа на patent troll поскольку он является частным, а не государственным, и поддерживает себя за счет соблюдения законных прав интеллектуальной собственности, которые он получает от других. В этом случае, вместо того, чтобы гнаться за прибылью, организация обеспечивает соблюдение этических принципов. defiконечно в лицензиях.

Эта модель является гибкой и адаптируемой для удовлетворения потребностей постоянно меняющейся среды искусственного интеллекта. Он также допускает существенные варианты правоприменения, такие как традиционный государственный регулятор. Таким образом, он сочетает в себе лучшие элементы подходов жесткого и мягкого права для решения уникальных задач ИИ.

Четыре ключевых вопроса, которые нужно задать

Джон Вилласенор, профессор электротехники, права, государственной политики и управления, Калифорнийский университет, Лос-Анджелес

GLI экстраординарный недавний прогресс Генеративный ИИ, основанный на больших языковых моделях, стимулирует спрос на создание нового регулирования, специфичного для ИИ. Вот четыре ключевых вопроса, которые следует задать себе:

1) Есть ли необходимость в новом конкретном регулировании ИИ? 

Многие из потенциально проблемных результатов систем ИИ уже устранены существующими структурами. Если алгоритм ИИ, используемый банком для оценки кредитных заявок, приведет к расово дискриминационным решениям о кредитовании, это нарушит Закон о справедливом жилищном обеспечении.Если программное обеспечение ИИ в беспилотном автомобиле вызывает аварию, закон об ответственности за качество продукции предусматривает рамки для применения средств правовой защиты .

2) Каковы риски регулирования быстро развивающейся технологии на основе моментального снимка времени? 

Классическим примером этого является Хранимая Закона о связи , который был введен в действие в 1986 году для обращения к инновационным технологиям цифровой связи, таким как электронная почта. Принимая SCA, Конгресс обеспечил значительно меньшую защиту конфиденциальности для электронной почты старше 180 дней.

Причина заключалась в том, что ограниченное хранилище означало, что люди постоянно очищали свои почтовые ящики, удаляя старые сообщения, чтобы освободить место для новых. В результате сообщения, хранящиеся в архиве более 180 дней, считались менее важными с точки зрения конфиденциальности. Неясно, имела ли когда-либо эта логика смысл, и уж точно она не имела смысла в 20-е годы, когда большинству наших электронных писем и других архивных цифровых сообщений уже более шести месяцев.

Обычный ответ на опасения по поводу регулирования технологии на основе одного снимка с течением времени таков: если закон или постановление устаревает, обновите его. Это легче сказать, чем сделать. Большинство людей согласны с тем, что SCA устарела несколько десятилетий назад. Но поскольку Конгресс не смог конкретно договориться о том, как пересмотреть положение о 180-дневном сроке, оно все еще находится в книгах спустя более трети века после его принятия.

3) Каковы возможные непредвиденные последствия? 

Il Закон о разрешении государствам и жертвам бороться с торговлей людьми в целях сексуальной эксплуатации в Интернете от 2017 года это был закон, принятый в 2018 году, который он пересмотрел Раздел 230 Закона о приличии в средствах массовой информации с целью борьбы с торговлей людьми в целях сексуальной эксплуатации. Хотя доказательств того, что он сократил торговлю людьми в целях сексуальной эксплуатации, мало, чрезвычайно проблематичное воздействие на другую группу людей: секс-работников, которые полагались на веб-сайты, отключенные FOSTA-SESTA, для обмена информацией об опасных клиентах. Этот пример показывает важность широкого рассмотрения потенциальных последствий предлагаемых правил.

4) Каковы экономические и геополитические последствия? 

Если регулирующие органы в США предпримут действия, чтобы намеренно замедлить прогресс в области ИИ, это просто подтолкнет инвестиции и инновации — и, как следствие, создание рабочих мест — в других местах. Хотя появляющийся искусственный интеллект вызывает много опасений, он также обещает принести огромные преимущества в таких областях, как образование , медицина , Производство , транспортная безопасность , сельское хозяйство , Previsioni Meteorologiche , доступ к юридическим услугам e altro anchor.

Я считаю, что правила ИИ, разработанные с учетом вышеперечисленных четырех вопросов, с большей вероятностью будут успешно устранять потенциальный вред ИИ, обеспечивая при этом доступ к его преимуществам.

Эта статья является свободной выдержкой из The Conversation, независимой некоммерческой новостной организации, занимающейся обменом знаниями академических экспертов.

Связанные материалы

BlogInnovazione.it

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

АРТИКОЛИ recenti

Будущее уже здесь: как судоходная отрасль меняет мировую экономику

Военно-морской сектор является настоящей глобальной экономической державой, которая достигла 150-миллиардного рынка...

1 мая 2024

Издатели и OpenAI подписывают соглашения, регулирующие поток информации, обрабатываемой искусственным интеллектом.

В прошлый понедельник Financial Times объявила о сделке с OpenAI. FT лицензирует свою журналистику мирового уровня…

Апрель 30 2024

Онлайн-платежи: вот как потоковые сервисы заставляют вас платить вечно

Миллионы людей платят за стриминговые сервисы, выплачивая ежемесячную абонентскую плату. Распространено мнение, что вы…

Апрель 29 2024

Veeam предлагает наиболее полную поддержку программ-вымогателей: от защиты до реагирования и восстановления.

Coveware от Veeam продолжит предоставлять услуги по реагированию на инциденты, связанные с кибер-вымогательством. Coveware предложит возможности криминалистики и исправления…

Апрель 23 2024

Читайте «Инновации» на вашем языке

Инновационный бюллетень
Не пропустите самые важные новости об инновациях. Зарегистрируйтесь, чтобы получать их по электронной почте.

Следуйте за нами