Поисковая система направила свое предложение в правительство Австралии, призывая политиков изменить существующие законы об авторском праве. Google хочет, чтобы искусственный интеллект мог добывать весь цифровой контент, если только издатели не откажутся от этого.
С таким предложением поисковая система обратилась к правительству Австралии, призвав политиков изменить действующие законы об авторском праве.
Почему нас это волнует. Если законы об авторском праве будут изменены, то на бренды и издателей ляжет обязанность запретить искусственному интеллекту добывать их контент. Если они этого не сделают, то рискуют столкнуться с тем, что конкуренты могут генерировать очень похожий контент в рамках работ по SEO-оптимизации и не смогут ничего с этим поделать, что может нанести существенный ущерб кампании с точки зрения бренда и идентичности.
Что же происходит? Компания Google направила письмо правительству Австралии, в котором говорится следующее:
«Системы авторского права, позволяющие надлежащее и добросовестное использование защищенного авторским правом контента, позволят обучать модели искусственного интеллекта в Австралии на широком и разнообразном спектре данных, поддерживая при этом работоспособные исключения для организаций, которые предпочитают, чтобы их данные не обучались с помощью систем искусственного интеллекта».
Поисковая система, конечно, уже обращалась с подобными исками к австралийскому правительству, утверждая, что ИИ должен добросовестно использовать онлайн-контент в целях обучения. Однако это первый случай, когда Google предлагает положение об отказе от использования данных в качестве решения для устранения прежних опасений.
Как это будет работать? Пока у Google нет конкретного плана, однако поисковая система заявила, что хочет обсудить возможность создания разработанного сообществом веб-стандарта, который будет работать по аналогии с системой robots.txt, позволяющей издателям отказаться от использования поисковыми системами своего контента.
Что ответила компания Google? Даниэль Ромен (Danielle Romain), вице-президент по доверию в поисковой системе Google, затронула эту тему в пресс-релизе в прошлом месяце. Она сказала:
«Мы считаем, что от динамично развивающейся экосистемы контента выигрывают все. Ключевым моментом в этом является наличие у веб-издателей возможности выбора и контроля над своим контентом, а также возможности получать прибыль от участия в веб-экосистеме. Однако мы понимаем, что существующие механизмы контроля для веб-издателей были разработаны до появления новых вариантов использования ИИ и исследований.
«С появлением новых технологий у веб-сообщества появляются возможности для разработки стандартов и протоколов, которые поддерживают будущее развитие сети. Один из таких стандартов — robots.txt — был создан почти 30 лет назад и зарекомендовал себя как простой и прозрачный способ контроля поисковыми системами их содержимого. Мы считаем, что настало время для сообществ веб-индустрии и ИИ изучить дополнительные машиночитаемые средства для выбора и контроля веб-издателями новых вариантов использования ИИ и исследований».