Закрытый форум для участников · 🇺🇸 English

МЕГАТРЕДАвторское право на контент ИИ — ChatGPT, Claude, Midjourney (2026)

Начал Модератор_КМ · 15 ноября 2025 · 48 ответов

Коллеги, за последний год у нас накопилось несколько десятков тем по авторскому праву на контент, созданный с помощью ИИ. Решил объединить всё в один мегатред, чтобы не терять ценные обсуждения.

Ситуация на 2026 год остаётся крайне неопределённой. Основные вопросы, которые обсуждаем:

  • Можно ли защитить авторским правом текст, изображения и код, сгенерированные ИИ?
  • Что конкретно говорят ToS платформ — ChatGPT, Claude, Midjourney, DALL-E, Suno?
  • Требование «человеческого авторства» — как суды интерпретируют это?
  • Коммерческое использование — можно ли продавать ИИ-контент, лицензировать, использовать в продуктах?
  • Иски по training data — NYT v. OpenAI, Getty v. Stability AI и их последствия
  • Практические рекомендации для бизнеса и фрилансеров

Просьба держать обсуждение в рамках правовых и практических вопросов. Дискуссии на тему «ИИ-арт — это вообще искусство?» ведите в отдельной теме. Новые решения судов буду добавлять по мере появления.

Отличная инициатива. Давайте начну с правовой базы. По американскому праву (а именно оно определяет политику большинства ИИ-платформ) ситуация следующая:

В деле Thaler v. Vidal (2023) Федеральный суд подтвердил позицию US Copyright Office: для регистрации авторского права необходим человек-автор. ИИ сам по себе не может быть автором. Это ключевое решение.

Далее, в деле Zarya of the Dawn Copyright Office частично зарегистрировал книгу — текст автора был защищён, а изображения Midjourney — нет, потому что автор не контролировал конечный результат на уровне пикселей.

Для практики это означает: чем больше «человеческого вклада» вы вносите в финальный продукт, тем выше шансы на охраноспособность. Просто промпт «нарисуй кота в стиле Ван Гога» скорее всего не создаёт авторского права.

А что насчёт российского права? У нас ведь ГК РФ тоже требует «творческий вклад» автора. Статья 1257 ГК РФ говорит, что автором является гражданин, творческим трудом которого создано произведение. ИИ — не гражданин.

Но вот интересный момент: если я пишу развёрнутый промпт на 2 страницы, корректирую результат, компоную — это уже мой творческий вклад или нет? В российской судебной практике пока ни одного прецедента по этому вопросу нет.

Меня интересует чисто практический аспект. У нас стартап, мы используем ChatGPT и Claude для генерации маркетинговых текстов. Вопрос: могут ли конкуренты просто взять наш сгенерированный текст и использовать его, раз он «не защищён авторским правом»?

И второй вопрос — если мы вставляем ИИ-текст в наш продукт (SaaS-платформа), это как-то влияет на нашу IP для инвесторов?

startup_cto_ru: могут ли конкуренты просто взять наш сгенерированный текст?

Формально — если текст полностью сгенерирован ИИ без существенной доработки, то по текущей позиции Copyright Office он не защищён copyright. Но есть нюансы:

  1. Если вы существенно редактируете текст — добавляете структуру, меняете формулировки, вставляете свой анализ — это уже ваше производное произведение
  2. Даже без copyright у вас есть другие механизмы защиты: trade secret, unfair competition, NDA с сотрудниками
  3. Для инвесторов: да, это реальный вопрос на due diligence. Рекомендую документировать процент «человеческого вклада» в ваш контент

Я профессиональный иллюстратор и активно использую Midjourney в работе. Давайте разберём ToS Midjourney по пунктам.

По текущим условиям (обновление от сентября 2025):

  • Платные подписчики — получают все права на сгенерированные изображения, включая коммерческие
  • Бесплатные пользователи — Midjourney сохраняет за собой лицензию на использование
  • Компании с выручкой > $1M/год — обязаны покупать Pro или Mega план
  • Midjourney оставляет за собой право использовать ваши изображения для обучения модели (если не отключить в настройках)

Важно: это контрактные права, а не авторские. Midjourney может дать вам право использовать изображение, но это не значит, что вы можете зарегистрировать на него copyright.

Давайте разберём условия Anthropic (Claude). Я внимательно изучил их ToS:

Anthropic Usage Policy: Все выходные данные (outputs) принадлежат пользователю. Anthropic не претендует на ownership того, что генерирует Claude. Это прописано явно.

Но есть важный caveat: Anthropic может использовать ваши промпты и ответы для улучшения модели, если вы используете бесплатную версию или API без opt-out. В платных планах (Claude Pro, Team, Enterprise) эта функция отключена по умолчанию.

Для коммерческого использования Claude — один из наиболее «чистых» вариантов с точки зрения IP, особенно на Enterprise плане.

А что с OpenAI / ChatGPT? Я делаю дизайн для клиентов и часть работы делегирую DALL-E 3.

Из ToS OpenAI: «As between you and OpenAI, and to the extent permitted by applicable law, you own all Input and Output.» То есть они передают вам права на output, но с оговоркой — «в той мере, в которой это разрешает закон».

Получается, OpenAI формально говорит: «мы считаем, что это ваше, но если суд решит иначе — это не наша проблема». Хитро.

freelancer_designer: OpenAI формально говорит: «мы считаем, что это ваше, но если суд решит иначе — это не наша проблема»

Именно так. И это стандартный подход. Ни одна платформа не будет гарантировать вам copyright на output, потому что это вне их юрисдикции — это решает закон и суды.

По сути, все ToS дают вам контрактное право использования, а не copyright. Разница огромная:

  • Контрактное право — действует между вами и платформой
  • Copyright — действует erga omnes (против всех)

Если у вас нет copyright на изображение, вы не сможете подать DMCA takedown против человека, который скопировал вашу ИИ-картинку.

А давайте поговорим про Suno AI и музыку. Я использую Suno для создания демо-треков для рекламных роликов. Клиенты потом могут это коммерчески использовать?

ToS Suno: платные подписчики получают коммерческую лицензию. Но есть ограничения — нельзя выдавать за «живую» музыку и нельзя использовать для создания обучающих данных для конкурентов.

Вопрос: если мой клиент монтирует рекламу с Suno-треком и выкладывает на YouTube — кто несёт ответственность, если кто-то заявит copyright claim?

music_producer_msk: кто несёт ответственность, если кто-то заявит copyright claim?

Отличный вопрос. Тут несколько слоёв:

1) Suno обучена на существующей музыке. Если output случайно слишком похож на существующий трек — правообладатель оригинала может подать claim. Content ID на YouTube это делает автоматически.

2) Suno в своих ToS включает indemnification clause — они не несут ответственности за claims третьих лиц. Ответственность на пользователе.

3) На практике: если рекламный ролик, то риск не очень высокий, если музыка действительно оригинальная. Но для крупных кампаний я бы рекомендовал заказывать custom music у живых композиторов или использовать лицензированные библиотеки.

А что с кодом? Я пишу код с помощью Copilot и Claude. Код — это тоже объект авторского права. Кому принадлежит код, сгенерированный ИИ?

У GitHub Copilot была целая история с иском — DOE 1 v. GitHub. Суд частично отклонил иски, но вопрос о том, нарушает ли Copilot авторские права на open-source код, до сих пор открыт.

Мой работодатель требует декларировать использование ИИ в коде. Это нормальная практика или паранойя?

dev_fullstack_nn: Мой работодатель требует декларировать использование ИИ в коде. Это нормальная практика или паранойя?

Это абсолютно нормально и даже необходимо. У нас в компании мы ввели AI Policy полгода назад. Вот основные пункты:

  • Разрешено использовать ИИ для бойлерплейт-кода, документации и тестов
  • Запрещено отправлять проприетарный код в публичные ИИ-модели
  • Весь ИИ-сгенерированный код должен проходить стандартный code review
  • Каждый PR с существенным вкладом ИИ отмечается тегом ai-assisted

Для инвесторов это важно: если ваш core product построен на ИИ-коде, нужно уметь объяснить, что IP принадлежит вам.

Хочу добавить про дело Thomson Reuters v. Ross Intelligence. Это не совсем про генерацию контента, но очень релевантно.

Ross Intelligence использовал данные Westlaw для обучения своей правовой ИИ-системы. Суд признал, что это может быть нарушением copyright, даже если конечный продукт не копирует оригинал дословно.

Это важно для всех, кто работает с ИИ: даже если вы создаёте «новый» продукт с помощью ИИ, вопрос о том, на чём обучена модель, может аукнуться вам, как пользователю.

Ребята, у меня конкретный кейс. Я делаю карточки товаров на маркетплейсах (Ozon, WB). Описания генерирую через ChatGPT, фото товаров обрабатываю через Midjourney (убираю фон, добавляю lifestyle-контекст).

Конкурент скопировал мои описания и фото один в один. Могу ли я подать жалобу на маркетплейс? Если контент не защищён copyright, то формально он имеет право его использовать?

ecommerce_vlad: Конкурент скопировал мои описания и фото один в один.

Даже если чистый copyright спорен, у вас есть другие варианты:

  1. Недобросовестная конкуренция (ст. 14.6 Закона о защите конкуренции) — копирование внешнего вида товара и его описания может быть признано актом недобросовестной конкуренции
  2. Правила маркетплейса — и Ozon, и WB в своих правилах запрещают копирование контента других продавцов, вне зависимости от copyright
  3. Фотографии — если вы сами фотографировали товар и лишь обработали фото через ИИ, оригинальное фото всё равно ваше

Подавайте жалобу через маркетплейс. Обычно они удаляют скопированный контент довольно оперативно.

Вопрос из серии «а какое право применять». Я гражданин РФ, живу на Бали, работаю на американскую компанию, использую ChatGPT (OpenAI, США) для генерации контента, который публикуется на глобальном сайте.

Какое законодательство регулирует мои права на ИИ-контент? Российское, индонезийское, американское?

digital_nomad_bali: Какое законодательство регулирует мои права на ИИ-контент?

Вопрос на миллион. Коротко: зависит от того, где вы хотите защищать свои права и от кого.

  • ToS OpenAI регулируется правом штата Калифорния (указано в их Terms)
  • Если кто-то в России скопирует ваш контент — применяется ГК РФ
  • Если в США — U.S. Copyright Act
  • Бернская конвенция даёт минимальную гармонизацию, но для ИИ-контента она пока молчит

На практике: работайте так, будто copyright на чистый ИИ-output не существует ни в одной юрисдикции. Добавляйте человеческий вклад, документируйте его, и тогда у вас будет хоть какая-то защита везде.

Мы разрабатываем мобильную игру и хотим использовать Midjourney для концепт-артов и финальных ассетов. Вопросы:

  1. Можем ли мы зарегистрировать игру как объект авторского права, если часть визуалов — ИИ?
  2. Если конкурент сделает клон нашей игры с похожими ИИ-артами, сможем ли мы судиться?
  3. Стоит ли нанимать художника для «дорисовки» ИИ-артов, чтобы получить copyright?
game_dev_kazan: Стоит ли нанимать художника для «дорисовки» ИИ-артов?

Да, и это уже стандартная практика в индустрии. Я сам так работаю:

  1. Генерирую в Midjourney несколько вариантов
  2. Выбираю лучший и импортирую в Photoshop / Procreate
  3. Существенно перерабатываю: перекрашиваю, добавляю детали, меняю композицию, дорисовываю элементы
  4. Финальный результат — это уже моё производное произведение

Ключевое слово — существенная переработка. Если вы просто добавите подпись — это не считается. Нужно реально изменить изображение на уровне, где ваш творческий вклад очевиден.

Что касается игры целиком: игра как составное произведение (код + арт + музыка + геймдизайн) скорее всего охраноспособна, даже если отдельные элементы — нет.

Промежуточное обновление: 22 ноября 2025 года Copyright Office США выпустил новое руководство по регистрации произведений с элементами ИИ. Ключевые моменты:

  • Подтверждён принцип «human authorship requirement»
  • Заявители обязаны раскрывать использование ИИ при регистрации
  • Отказ раскрыть может привести к аннулированию регистрации
  • Введена градация: «AI-assisted» vs «AI-generated» — ключевое различие

Полный текст руководства доступен на сайте Copyright Office. Обсуждение конкретных положений — приветствуется.

Я пишу статьи о технологиях и праве. Интересный тренд: всё больше компаний вводят «AI Content Disclosure» в контрактах с поставщиками контента.

Видел у трёх клиентов в договорах пункт вроде: «Исполнитель гарантирует, что контент создан без использования генеративных ИИ-инструментов, либо что использование ИИ не превышает 20% от финального продукта.»

Вопрос к юристам: насколько такие пункты enforceable? Как вообще доказать процент использования ИИ?

tech_journalist_msk: насколько такие пункты enforceable?

Enforceable в смысле «можно ли расторгнуть договор за нарушение» — да. Это обычное контрактное обязательство. Если вы подписали и нарушили — это breach of contract.

Но доказать — сложно. AI-детекторы (GPTZero, Originality.ai) ненадёжны — куча false positives. Суд, скорее всего, не примет их результаты как убедительное доказательство.

На практике такие пункты работают как deterrent — сдерживающий фактор. Мол, «мы в курсе, и если поймаем — будут последствия». Реальное enforcement крайне затруднено.

Тема SEO и ИИ-контента. Google уже заявил, что не штрафует за ИИ-контент как таковой, но продвигает E-E-A-T (Experience, Expertise, Authority, Trust).

С юридической точки зрения: если я генерирую 1000 SEO-статей через ChatGPT и публикую на 50 сайтах — есть ли какие-то правовые риски, кроме SEO-санкций?

seo_specialist_nsk: если я генерирую 1000 SEO-статей — есть ли какие-то правовые риски?

Правовые риски:

  • FTC concerns: если статьи представляют собой обзоры или рекомендации без disclosure, FTC может рассматривать это как deceptive practice
  • Defamation: если ИИ сгенерирует ложную информацию о реальном человеке или компании — вы несёте ответственность, не ИИ
  • YMYL-контент: медицинские, финансовые, юридические советы от ИИ — повышенные риски ответственности
  • ToS ChatGPT: массовая генерация может нарушать rate limits и acceptable use policy

Так что да, риски есть, и они выходят далеко за рамки SEO.

Я переводчик. Использую Claude для первичного перевода, потом тщательно редактирую. Вопрос: перевод с использованием ИИ — чей это copyright? Оригинального автора (как derivative work) или мой (как переводчика)?

В классическом праве переводчик имеет авторское право на свой перевод (ст. 1260 ГК РФ). Но если перевод делает ИИ, а я только редактирую — это всё ещё «мой» перевод?

translator_pro: если перевод делает ИИ, а я только редактирую — это всё ещё «мой» перевод?

Аналогия с post-editing в translation industry. MTPE (Machine Translation Post-Editing) существует давно, задолго до ChatGPT. И в индустрии перевода уже сложилась практика:

  • Light post-editing — минимальные правки, скорее всего не создаёт самостоятельного авторского права
  • Full post-editing — существенная переработка, ближе к созданию нового перевода

Если ваша редактура настолько глубокая, что финальный текст существенно отличается от машинного — у вас есть сильный аргумент за авторство.

Добавлю взгляд из мира венчура. На нескольких due diligence за последние полгода мы задавали стартапам вопросы про ИИ:

  1. Какие ИИ-инструменты используются в разработке?
  2. Какой процент кода написан с помощью ИИ?
  3. Есть ли AI Policy в компании?
  4. Как обеспечивается IP protection для ИИ-assisted продуктов?
  5. Есть ли exposure к training data lawsuits?

Стартапы, которые не могут ответить на эти вопросы внятно, получают пометку «IP risk» в нашем инвестиционном комитете. Это реально влияет на оценку.

У меня немного другой ракурс. Я SMM-менеджер, веду аккаунты клиентов. Генерирую посты через ChatGPT. Клиент потом спрашивает: «Это мой контент? Я могу его использовать после окончания нашего контракта?»

Как правильно прописать в договоре с клиентом, что контент создан с использованием ИИ и какие это имеет последствия для прав?

smm_manager_krd: Как правильно прописать в договоре?

Рекомендую включить следующие пункты:

  1. AI Disclosure: «Исполнитель вправе использовать генеративные ИИ-инструменты для создания контента»
  2. Rights Assignment: «Все права на созданный контент, в той мере, в которой они возникают, передаются Заказчику»
  3. Limitation: «Стороны признают, что контент, созданный с использованием ИИ, может не подлежать охране авторским правом в соответствии с действующим законодательством»
  4. Indemnification: «Исполнитель гарантирует, что использование ИИ-инструментов не нарушает права третьих лиц»

Прозрачность — ваш лучший друг в этой ситуации.

Вопрос по фотостокам. Я загружаю фотографии на Shutterstock. Они теперь помечают ИИ-контент отдельно. Если я обработал фото через ИИ (не сгенерировал, а обработал) — это считается ИИ-контентом?

Shutterstock, Adobe Stock и Getty — все ввели разные правила. Кто-нибудь разбирался в деталях?

photo_stock_spb: Если я обработал фото через ИИ — это считается ИИ-контентом?

Зависит от степени обработки. Вот как стоки это разграничивают (на начало 2026):

  • Shutterstock: разрешает ИИ-контент только через свой собственный генератор. Внешний ИИ-контент запрещён. Обработка через ИИ-фильтры (upscale, denoise) — допускается, если основа — реальное фото.
  • Adobe Stock: принимает ИИ-контент с пометкой. Разрешает Firefly и Photoshop Generative Fill. Другие ИИ — нужна маркировка.
  • Getty Images: полностью запрещает ИИ-generated контент. Обработка через ИИ — серая зона, зависит от масштаба изменений.

Мой совет: если вы зарабатываете на стоках — читайте Terms каждого стока внимательно и обновляйтесь, они меняют правила каждые пару месяцев.

Интересный вопрос из моей практики. Мы разрабатываем legal tech продукт, который использует LLM для анализа контрактов. Наш output — это структурированный отчёт по рискам в договоре.

Вопрос: этот отчёт — наш IP? Или клиента? И может ли конкурент реверс-инжинирить наши промпты через анализ наших отчётов?

legal_tech_dev: этот отчёт — наш IP?

Хороший вопрос. Тут нужно разделить:

1) Промпты и система: ваши промпты, архитектура системы, fine-tuning — это ваш trade secret и/или copyrightable work (промпты как литературное произведение — спорно, но система в целом — да).

2) Output (отчёт): если ваша система существенно структурирует, форматирует и добавляет аналитику к raw LLM output — это скорее всего ваше производное произведение. Особенно если формат отчёта уникален.

3) Reverse engineering промптов: технически сложно, но возможно. Защита — NDA с клиентами и trade secret protection. Можно также запатентовать уникальный метод обработки (utility patent).

А что насчёт образовательного контента? Я создаю онлайн-курсы. Лекции пишу сам, но презентации и тесты генерирую через Claude. Потом продаю курс на Udemy.

Udemy ToS требуют, чтобы инструктор был «единственным владельцем» контента. Если часть контента — ИИ, я нарушаю их условия?

educator_online: Udemy ToS требуют, чтобы инструктор был «единственным владельцем» контента.

По ToS Claude (Anthropic) — вы владелец output. Так что формально вы «единственный владелец» контента, полученного от Claude. Anthropic на него не претендует.

Вопрос в другом: Udemy может обновить свои ToS и потребовать disclosure использования ИИ. Coursera уже это сделала — они требуют отмечать AI-assisted контент.

Мой совет: используйте ИИ как помощник, но существенно перерабатывайте output. Тесты перепишите своими словами, добавьте контекст из вашего опыта. Это и для студентов полезнее, и юридически безопаснее.

Интересный кейс из моей практики. Клиент — крупный российский бренд — попросил сгенерировать логотип через DALL-E. Результат получился отличный. Но потом выяснилось:

  1. Зарегистрировать ИИ-логотип как товарный знак — можно (trademark не требует copyright)
  2. Но защитить его авторским правом от копирования — нельзя (нет human authorship)
  3. Другой бренд может создать похожий логотип и не нарушит copyright

В итоге мы наняли дизайнера, который существенно переработал ИИ-вариант. Теперь это и товарный знак, и объект авторского права.

brand_strategist: Зарегистрировать ИИ-логотип как товарный знак — можно

Важное уточнение! Trademark и copyright — это разные системы защиты. Trademark защищает функцию обозначения источника товара/услуги, а не «творческий вклад».

Поэтому ИИ-логотип можно зарегистрировать как товарный знак в Роспатенте или USPTO. Но если конкурент создаст другой логотип, похожий на ваш, но не до степени смешения — вы не сможете его остановить через copyright, только через trademark infringement (если докажете likelihood of confusion).

Коллеги, а что с synthetic data? Мы генерируем синтетические данные через LLM для обучения наших ML-моделей. Эти данные — наш IP?

Контекст: мы стартап, и наша ML-модель обучена на данных, частично сгенерированных ChatGPT. Инвесторы спрашивают, не создаёт ли это зависимость от OpenAI и не рискуем ли мы IP-спором.

data_scientist_msk: не рискуем ли мы IP-спором?

Это один из самых горячих вопросов в венчуре сейчас. Вот что я советую клиентам:

  1. Проверьте ToS OpenAI: они запрещают использование output для обучения конкурирующих моделей. Если ваша ML-модель не конкурирует с GPT — вы в порядке.
  2. Документируйте: какие данные real, какие synthetic. Инвесторы это ценят.
  3. Диверсифицируйте: не ставьте весь dataset на одного провайдера. Используйте несколько LLM + real data.
  4. Рассмотрите open-source модели: Llama, Mistral — их ToS обычно менее рестриктивны для downstream use.

IP risk от synthetic data — это не dealbreaker, но нужно уметь объяснить инвесторам, как вы его митигируете.

Ребята, а кто-нибудь сталкивался с ситуацией, когда клиент отказался платить, узнав, что текст написан с помощью ИИ? У меня такой кейс сейчас.

Я копирайтер, написал серию статей для клиента. Использовал ChatGPT для первого черновика, потом существенно переработал. Клиент каким-то образом узнал (прогнал через детектор?) и теперь требует вернуть деньги, говорит «я платил за авторский текст, а не за ИИ».

В договоре ничего не было про ИИ. Имеет он право на возврат?

copywriter_freelance: В договоре ничего не было про ИИ. Имеет он право на возврат?

Если в договоре не было запрета на использование ИИ и не было гарантии «100% авторский текст» — клиент, скорее всего, не имеет оснований для возврата.

Договор был на результат (текст определённого качества), а не на процесс (как именно текст создан). Если текст соответствует ТЗ — обязательство выполнено.

Но! Это урок для всех фрилансеров: включайте в договор AI disclosure clause. Прозрачность сейчас — это меньшие проблемы потом. Детекторы ненадёжны, но клиенты им верят, и это создаёт конфликты.

Добавлю про Stable Diffusion, раз уж обсуждаем все платформы. У Stable Diffusion ситуация уникальная, потому что модель open-source.

  • Лицензия модели — CreativeML Open RAIL-M. Она разрешает коммерческое использование output.
  • Но есть ограничения: нельзя генерировать незаконный контент, deepfakes без согласия и т.д.
  • Ключевое преимущество: вы запускаете модель локально, ваши промпты никуда не отправляются. Для конфиденциальных проектов — это важно.

Для архитектурной визуализации я использую именно SD — генерирую визуалы объектов, потом дорабатываю. Клиенты довольны, IP-рисков минимум.

Обновление по судебной практике. В январе 2026 ожидается решение по делу NYT v. OpenAI (вернее, по motion to dismiss). Это может стать прецедентом, определяющим, является ли обучение ИИ на copyrighted content fair use.

Варианты исхода:

  • OpenAI выигрывает: fair use, training на copyrighted data разрешено — это стабилизирует индустрию
  • NYT выигрывает: обучение без лицензии = нарушение — это может обрушить весь ИИ-рынок
  • Компромисс: обучение разрешено, но нужна компенсация — вероятнее всего этот вариант

Следим внимательно. Это дело повлияет на всех нас.

Вопрос от инди-разработчика. Я выпускаю игру в Steam. Все арты сделаны в Midjourney + дорисовка в Photoshop. Музыка — Suno + финальный микс в Ableton. Код — мой + Copilot.

Steam в своих правилах пока не запретил ИИ-контент (после первоначального бана они смягчили позицию). Но нужно ли мне дисклеймер в самой игре? И если игрок оставит негативный отзыв «это ИИ-мусор» — могу ли я попросить Steam его удалить?

indie_game_dev: нужно ли мне дисклеймер в самой игре?

По текущим правилам Steam: при подаче игры на ревью нужно отметить использование ИИ. В самой игре дисклеймер не обязателен, но рекомендуется для прозрачности.

Касательно отзывов: Steam не удаляет отзывы за мнение, даже негативное. «Это ИИ-мусор» — это субъективное мнение пользователя. Другое дело, если отзыв содержит ложные факты или оскорбления — тогда можно репортить.

Коллеги, давайте не уходить в обсуждение Steam policy — для этого можно создать отдельную тему. Здесь фокус на правовых аспектах.

Итоговые рекомендации для тех, кто использует ИИ коммерчески (на конец 2025):

  1. Документируйте человеческий вклад: храните промпты, черновики, историю правок. Чем больше доказательств вашего творческого участия — тем лучше.
  2. Читайте ToS платформ: они регулярно обновляются. То, что было разрешено полгода назад, может быть запрещено сейчас.
  3. Включайте AI clauses в контракты: с клиентами, подрядчиками, сотрудниками. Прозрачность защищает обе стороны.
  4. Не полагайтесь только на copyright: trademark, trade secret, контрактная защита — используйте все доступные инструменты.
  5. Следите за судебной практикой: 2026 год будет определяющим. NYT v. OpenAI, Getty v. Stability AI — эти решения изменят ландшафт.

Обновление от модератора (20.12.2025):

Спасибо всем за качественную дискуссию. Этот тред стал одним из самых ценных ресурсов на форуме. Краткое резюме ключевых выводов:

  • Чистый ИИ-output, скорее всего, не охраняется авторским правом ни в одной юрисдикции
  • AI-assisted контент с существенным человеческим вкладом — охраноспособен
  • ToS платформ дают контрактные права, но не copyright
  • Для бизнеса критично: AI Policy, документирование, AI disclosure в контрактах
  • 2026 год принесёт ключевые судебные решения — следите за обновлениями

Тред остаётся открытым. Буду добавлять обновления по мере появления новых решений и guidance. Вопросы по конкретным ситуациям — создавайте отдельные темы со ссылкой сюда.

Огромное спасибо за тред. Благодаря обсуждению мы в компании наконец-то оформили AI Policy и обновили контракты с подрядчиками. Инвесторы были приятно удивлены нашей подготовленностью на due diligence.

Единственное, о чём хочу предупредить: не пытайтесь скрывать использование ИИ. Рынок движется к прозрачности, и те, кто скрывает, рискуют больше, чем те, кто открыто об этом говорит.