Главный фокус
Недавнее расследование Федеральной торговой комиссией (FTC) компании OpenAI, создателя популярного ИИ-бота ChatGPT, знаменует собой важный поворотный момент в регулировании искусственного интеллекта (ИИ) в США. Это расследование, сосредоточенное на потенциальных нарушениях законов о защите прав потребителей, представляет наиболее мощную на сегодня угрозу бизнесу OpenAI в США и сигнализирует о новой эре пристального изучения компаний ИИ.
Конкретно, FTC утверждает, что ChatGPT иногда генерирует “заявления о людях, которые являются ложными, вводящими в заблуждение, необоснованными или иным образом вероятно вводящими пользователей в заблуждение”. Более того, агентство считает, что эти неточные утверждения потенциально могут “нанести ущерб репутации” людям, названным или затронутым в ответах ChatGPT. FTC также ставит в вину OpenAI проблемы с конфиденциальностью данных и практиками обеспечения безопасности, утверждая, что компания не защищала конфиденциальные данные пользователей в соответствии с правилами FTC.
FTC требует финансового возмещения для потребителей, изменения практик OpenAI и постоянного мониторинга для обеспечения соблюдения требований. Охватываемый период простирается от запуска ChatGPT в июле 2022 года до настоящего времени.
Согласно недавнему отчету TechCrunch, расследование FTC, вероятно, было инициировано жалобами на репутационный ущерб, причиненный ChatGPT, такими как инцидент, в котором чат-бот ложно утверждал, что австралийский мэр был осужден за взяточничество и приговорен к тюремному заключению. Подобные судебные иски, жалующиеся на диффамацию со стороны ChatGPT, могут спровоцировать пристальное внимание со стороны FTC.
Для сообщества ИИ эта жалоба дает важные уроки о возникающих рисках языковых моделей – и о том, как регуляторы планируют их изучать. Вот три ключевых вывода:
Точность и правдивость
В сущности жалоба FTC сосредотачивается на том, что ChatGPT иногда делает ложные или вводящие в заблуждение заявления о реальных людях. Это может происходить, если ChatGPT генерирует оскорбительный, опасный или злоупотребляющий контент на основе вредных шаблонов данных в своих тренировочных данных. Это также может происходить, когда ChatGPT “фантазирует” новую информацию из-за своей генеративной природы, а не остается строго фактологичным.
Так или иначе, FTC ясно дает понять, что системы ИИ не должны распространять неверную информацию или ложь об отдельных лицах. Это ожидание в отношении точности и правдивости, вероятно, распространится на все генеративные ИИ-приложения, а не только на ChatGPT.
Таким образом, разработчикам ИИ следует удвоить усилия по оценке выходных данных модели на предмет потенциальных ошибок. Стратегии могут включать ручное рецензирование, сканирование тренировочных наборов данных на предмет сомнительных источников, добавление моделей-классификаторов и проактивную фильтрацию. Правдивость должна быть полярной звездой во время обучения.
Репутационный вред
Ключевым аспектом жалобы FTC является то, как ChatGPT может нанести ущерб репутации и средствам к существованию специалистов, экспертов и компаний, делая о них необоснованные заявления. Агентство занимает позицию, что API вроде ChatGPT не должны иметь неконтролируемую власть искажать общественное восприятие.
Есть несколько ключевых способов, которыми разговорные ИИ-чат-боты вроде ChatGPT потенциально могут нанести ущерб репутации людей:
- Делать ложные или необоснованные заявления о поведении или характере кого-либо. Например, ложно утверждать, что кто-то совершил преступление или проступок. Даже если это неправда, это все еще может запятнать их репутацию, если другие будут полагаться на это.
- Раскрывать конфиденциальную, чувствительную или секретную информацию без согласия субъекта. Это может выявить детали, которые нарушают их конфиденциальность или изображают их в негативном свете.
Это примечательное дополнение к несправедливым / вводящим в заблуждение стандартам, которые традиционно фокусируются на причинении финансового ущерба потребителям. FTC сигнализирует, что репутационный ущерб, вызванный ИИ, представляет собой самостоятельный вид вреда, который стоит предотвратить.
Для разработчиков ИИ защита репутации людей теперь, похоже, является ключевым соображением. Компаниям может потребоваться внедрить строгую идентификацию личности, черные списки имен/организаций, оговорки об ограничении ответственности и способы решения ошибочных результатов, которые несправедливо порочат репутацию. Поддержание правильного баланса между творчеством и осторожностью будет иметь решающее значение.
Правила конфиденциальности и безопасности
В жалобе FTC также утверждается, что OpenAI не выполнила защиту данных пользователей, как того требует раздел 5 Закона FTC. В частности, утверждается, что компания не внедрила разумные меры безопасности данных и нарушила обязательства, взятые в своей политике конфиденциальности.
Это служит еще одним напоминанием о том, что компании ИИ обязаны защищать данные пользователей, проактивно выявлять уязвимости программного обеспечения и внедрять надежные киберзащитные меры. Поскольку системы ИИ потребляют больше личной информации пользователей, чем когда-либо, последствия утечки могут быть еще более острыми.
Ненадлежащее обращение с конфиденциальными данными или неадекватное реагирование на ошибки могут нарушить обязательства Раздела 5 по безопасности данных. Это подчеркивает, почему непрерывные аудиты и соблюдение передовых практик в области контроля доступа, шифрования и исправления уязвимостей настолько важны в сфере ИИ. Принятие принципов конфиденциальности и безопасности на этапе проектирования при разработке новых систем настоятельно рекомендуется.
В целом, учитывая предполагаемые проблемы с правдивостью ChatGPT и упомянутые проблемы с безопасностью, жалоба FTC рисует картину вялых защит вокруг информации и прав пользователей ИИ. Более строгая ответственность в этих областях, похоже, неизбежна не только для OpenAI, но и для всей отрасли генеративного ИИ.
Взгляд в будущее…
Хотя OpenAI оспорила обвинения FTC, жалоба тем не менее сигнализирует о новой эре регуляторного контроля для ИИ. Скорее всего, мы увидим повышенное внимание к безопасности, точности, смягчению предвзятости и защите прав потребителей по мере распространения ИИ.
При правильном подходе этот надзор мог бы помочь отрасли ИИ завоевать доверие общественности и согласовать принятие решений ИИ с человеческими ценностями. Но это также создает новые требования должной осмотрительности для компаний, разрабатывающих приложения ИИ.
Как и на заре регулирования Интернета, в настоящее время регуляторы сталкиваются с крутой кривой обучения, когда дело доходит до технологий ИИ. Как таковые, некоторые стандарты, вероятно, останутся текучими по мере установления реалистичных гарантий.
В целом жалоба FTC предоставляет своевременный пример для разработчиков ИИ о потенциальных видах вреда, которые отслеживают регуляторы. Хотя детали могут меняться, общие темы точности, репутации, конфиденциальности и безопасности здесь, чтобы остаться. Инвестирование в ответственные ИИ-практики в этих областях – это разумный путь вперед.
Часто задаваемые вопросы
Какими могут быть некоторые ключевые последствия этой жалобы FTC для отрасли ИИ в целом?
Последствия этой жалобы могут иметь очень широкий охват для компаний ИИ. Она предупреждает их, что генеративные модели должны соответствовать определенным стандартам точности, конфиденциальности и этики, чтобы быть законными. Хотя детали могут быть еще в процессе изменения, это указывает, что человеческий надзор, модерация контента, строгие тесты на предубеждение и защита репутации людей теперь являются приоритетами регуляторов.
Мы должны ожидать повышенную тщательность в проверке источников тренировочных данных, фильтрации выходных данных, добавлении гарантий по мере необходимости и повышенную прозрачность для пользователей. Скорее всего, это приведет к росту инвестиций в ответственные ИИ-практики по всей отрасли. Хотя детали еще предстоит уточнить, FTC дает понять, что системы ИИ должны тщательно рассматривать потенциальный вред в ходе разработки.
Может ли эта жалоба создать прецедент для более широкого регулирования контента ИИ?
Она легко может это сделать. FTC использует свои полномочия, чтобы гарантировать, что ИИ не будет необоснованно распространять неточную или вредную информацию безответственно. Эта же логика в конечном итоге может распространиться на все виды ИИ-систем, которые генерируют или распространяют контент, от виртуальных помощников до API компьютерного зрения.
Мы можем увидеть призывы к тому, чтобы определенные крупные языковые модели рассматривались как “информационные посредники”, учитывая их беспрецедентный охват. Это может наложить обязанности по борьбе с дезинформацией, предотвращению дискриминации, разрешению обжалования удалений и обеспечению прозрачности решений. Хотя регулирование контента ИИ остается трудной задачей, эта жалоба закладывает основу для более широкого надзора, если вред распространится.
Каковы последствия для свободы слова при более строгом регулировании ИИ?
Существуют законные опасения по поводу навязывания какого-либо конкретного мировоззрения или ограничения творчества ИИ. Однако акцент FTC здесь делается на явной лжи или нарушениях конфиденциальности, а не на регулировании мнений. Защита людей от однозначного ущерба репутации также кажется разумно соразмерной.
Тем не менее, законодателям следует проявлять осторожность, чтобы не ограничивать чрезмерно выражение ИИ в поисках безопасности и точности. У ИИ есть потенциал демократизировать обмен информацией и доступ к ней, если это реализовать продуманно. Определение гарантий без охлаждения инноваций потребует действовать аккуратно. Но если сделать правильно, улучшенный надзор мог бы сделать решения ИИ более инклюзивными для всех.
Как это может повлиять на планы компаний вроде Google, Meta и Microsoft, которые также разрабатывают крупные языковые модели?
Крупные технологические игроки, изучающие это пространство, вероятно, осознают, что усиленный контроль генеративного ИИ неизбежен. Эта жалоба подчеркивает неотложность приоритизации безопасности, этики и прав человека с самых ранних этапов разработки.
Мы должны увидеть эффект домино, побуждающий технологических гигантов инвестировать еще больше в модерацию контента, фильтрацию, тестирование на предубеждение, этическую экспертизу данных и защиту от злоупотреблений. Регуляторное давление также может ускорить отраслевое сотрудничество по передовым практикам. Хотя это обременительно в краткосрочной перспективе, культивирование общественного доверия в конечном итоге выгодно всем в экосистеме ИИ. Это действие FTC – сигнал тревоги о том, что нужно проектировать ответственно.
Каковы некоторые ключевые способы, которыми эта жалоба FTC может повлиять на прогресс исследований ИИ в целом?
Эта жалоба сигнализирует, что эра быстрых ИИ-исследований без гарантий подходит к концу. Мы должны ожидать, что регуляторное давление приведет к более осторожным и безопасным с самого начала подходам к разработке новых моделей. FTC ясно дает понять, что возможности ИИ сами по себе не будут оправдывать внедрение систем, которые не были тщательно проверены на потенциальный вред.
В краткосрочной перспективе это может ограничить возможность исследователей свободно публиковать модели, которые могут вызвать этические проблемы в дикой природе. Однако это стимулирует исследователей глубже инвестировать в такие области, как безопасность ИИ, аудит справедливости и предубеждений, методы предотвращения злоупотреблений и выравнивание с человеческими ценностями. Вместо того, чтобы полностью охладить инновации, это переориентирует отрасль на ответственный прогресс, который завоюет доверие общественности.
В более долгосрочной перспективе для нахождения правильного баланса между надзором и беспрепятственным творчеством в исследованиях ИИ потребуются постоянные проба и ошибка. Но приоритезация этических соображений наравне со сырыми возможностями на более раннем этапе разработки может предотвратить гораздо более жесткое регулирование в будущем. В целом, эта жалоба, направляющая исследователей на проактивное решение социальных рисков, может принести чистую пользу инновациям, если реализована обдуманно.
Каковы некоторые передовые практики для решения проблем вреда и дезинформации в крупных языковых моделях?
Есть комбинация человеческих и технических интервенций, которые могут помочь смягчить вред от языковых моделей:
- Тщательные проверки во время обучения / доводки для выявления предубеждений, ошибок в рассуждениях и проблемных выходных данных, требующих исправления перед любым публичным выпуском.
- Реализация классификаторов для обнаружения потенциальной дезинформации и маркировки ее для человеческого рассмотрения перед широким распространением.
- Черные списки определенных опасных или неэтичных использований, запросов или категорий контента с самого начала.
- Ограничение частоты вызовов API для контроля вирусности и предотвращения злоупотреблений.
- Проведение масштабных исследований пользователей на разнообразных группах населения для выявления потенциальных проблем.
- Предоставление гарантий пользователям в отношении проверки любой конфиденциальной сгенерированной информации.
- Умеренная модерация контента после выпуска с помощью сочетания автоматизации и человеческих рецензентов.
- Разрешение обжалования несправедливых удалений и обеспечение видимости процесса.
- Возможность для пользователей сообщать о вредных или ложных результатах для приоритизации исправления.
Тщательно продуманное сочетание технических решений, повышенная прозрачность и сбалансированный надзор во время разработки и эксплуатации могут помочь защитить пользователей, сохраняя огромный потенциал ИИ.
Каковы последствия для свободы слова, если для крупных языковых моделей потребуется больше модерации контента?
Модерация генерируемого ИИ контента вызывает определенные опасения по поводу цензуры, учитывая беспрецедентный охват этих систем. Однако не все ограничения равнозначны подлинному подавлению речи – контекст имеет решающее значение. Четкое определение незаконного по сравнению с просто предосудительным контентом ключевой момент.
Запрет очевидной лжи или нарушений конфиденциальности более безопасно подпадает под защиту потребителей. Но более широкая модерация, основанная на субъективном “оскорблении”, может быть чрезмерной, если она не адаптирована узко для защиты ощутимых индивидуальных прав и безопасности. Ограничение законных мнений, сатиры, искусства или маргинализированных голосов могло бы серьезно подорвать свободу самовыражения.
Законодателям потребуется модернизировать правовые рамки управления онлайн-речью по мере развития возможностей ИИ. Сохранение прозрачности решений о контенте и разрешение обжалования несправедливых удалений будут иметь решающее значение. В целом, цель должна заключаться в борьбе с явным обманом и вредом, одновременно разрешая максимально свободный обмен законными идеями. С осторожностью улучшенные практики модерации для ИИ не обязательно противоречат принципам свободы слова.
Должны ли системы ИИ нести юридическую ответственность, если они создают клеветнический контент или нарушают законы о конфиденциальности?
Это остается сложным юридическим вопросом. Системы ИИ сами по себе лишены сознания или намерения, поэтому возлагать на них исключительную юридическую вину бессмысленно. Однако их создатели, возможно, несут ответственность за ограничение противоправных действий настолько, насколько это возможно. Разработчики должны защищать системы от генерации незаконного контента посредством инженерных решений, проверки наборов данных, модерации и других мер предосторожности.
Тем не менее, некоторая ответственность, вероятно, должна лежать на компаниях, внедряющих модели безответственно. Жертвы нарушений конфиденциальности ИИ или диффамации заслуживают возмещения ущерба и сдерживания нарушителей. Один подход может заключаться в установлении стандартов халатности в отношении внедрения разумных гарантий, пропорциональных рискам. Однако строгая ответственность поставщиков за весь вред от ИИ могла бы затормозить инновации. Разработка взвешенных основ для стимулирования осторожности, не подавляя прогресс, будет ключевой.
Как регуляторы могут осуществлять надзор за разработкой новых ИИ-систем, чтобы снизить риск вреда?
Чрезмерно жесткие ограничения инноваций могут оказаться контрпродуктивными, поэтому “доверяй, но проверяй” может быть наиболее благоразумной философией. Рамки, требующие внешних проверок, оценок рисков и постоянного мониторинга, пропорциональных потенциальному воздействию ИИ-системы, могли бы помочь, не срывая полностью прогресс.
Регуляторам также нужна адекватная внутренняя экспертиза для оценки моделей и предоставления гибких рекомендаций разработчикам. Создание совместных органов, включающих правительство, академические круги и отрасль, по передовым практикам ИИ может быть полезным. Установление четких ожиданий на начальном этапе при сохранении гибкости может способствовать подотчетности, не подавляя открытий еще до их появления. Достижение надлежащего надзора потребует постоянного обучения на всех фронтах.