Про адекватное потребление информационного продукта
Вячеслав Черепахин, председатель Волгоградского областного отделения СЖР
Одна из новостей в мире ИИ за последние дни - YouTube начал удалять контент, созданный с помощью искусственного интеллекта. Удаляются целые каналы, причем не мелочёвка, а с миллионами подписчиков и миллиардными просмотрами. И, на мой взгляд, это показательное событие, касающееся перспектив развития ИИ. О регламентации работы нейросетей начали говорить практически сразу после выхода на рынок ChatGPT, лет пять назад.
Свои версии маркировки продукции ИИ предлагали Волгоградский и Московский Государственные университеты, участники рынка, разработчики, но, как и в случае с соцсетями, государственные законодательные органы отчаянно буксуют. С соцсетями была аналогичная ситуация – в период бурного их развития мало кто думал о негативных факторах, и только спустя несколько лет после их появления, в 2012-2014 годах, в правилах пользования стали появляться новые пункты, касающиеся ограничений распространения материалов по национальному, половому, этическому, возрастному и другими критериям.
Каждая платформа сама определяла свой свод законов исходя из практики, каких-то резонансных событий или конфликтов, связанных с негативными последствиями использования соцсетей. И только после саморегуляции платформ к делу подключились законодатели в большинстве государств, за основу взявшие уже выработанные принципы ограничения контента. Сейчас неважно, почему государственные институты проигрывают транснациональным сетям в регуляции технологий, может это и закономерно, сейчас интересно, что в случае с ИИ - история может (и должна) повториться.
И поэтому надо внимательно изучать, что будут делать YouTube и другие запрещенные и нет соцсети с контентом, произведённым с помощью нейросетей. Почему это важно? Здесь я вспомню дискуссию, которая перманентно проходит в медиаотрасли последние годы – для чего нужен ИИ. Пока каждая редакция самостоятельно определяет для себя свод правил. На примере волгоградских редакций могу сказать, что спектр применения очень широк – где-то полный запрет на использование, где-то допускается аналитика, а где-то не пренебрегают и ИИ-рерайтами – никакого единого стандарта.
Тут я бы высказал свою позицию – на мой взгляд, природа и сила ИИ как технологии – аналитика и работа с большими данными. Этим и должен владеть журналист. Контент, конечно, тоже можно делать – но зачем? Любое человеческое слово, даже кривоватое, не только честнее машинного, но главное – является мостиком между мыслью журналиста и читателем. Зачем привилегию обращаться к своей аудитории отдавать машине? А зачем тогда в принципе быть журналистом?
Другое дело – с помощью ИИ добывать, обрабатывать и анализировать данные для своего материала, получать консультацию по сложным вопросам. Это кстати нередкая позиция даже среди разработчиков нейросетей и ассистентов. Например, первая и самая продвинутая российская разработка, бизнес-ассистент Komanda.ai - предоставляет возможность автоматизировать, оптимизировать и упрощать сотни бизнес-процессов.
И лишь малая часть из них касается непосредственно производства контента. Это есть, но разработчики понимают перспективу внедрения ИИ в производственные процессы как инструмент снижения временных издержек и разработки качественных решений, а не заменитель творческих единиц. Так вот, возвращаясь к стандартам – именно поведение транснациональных платформ в ближайшие месяцы покажет нам, по какому пути пойдёт в дальнейшем регуляция использования ИИ. Упростит ли это жизнь журналиста? Вряд ли. Любые стандарты и ограничения только усложняют нашу работу.
Но, с точки зрения медиапотребителя, это, конечно, благо, потому что позволяет чётко понимать, что ты сейчас потребляешь, способствуя адекватному потреблению информационного продукта. А это и есть залог успешности любого медиа.
Источник: https://ruj.ru/news/blogs/pro-adekvatnoe-potreblenie-informatsionnogo-produkta-23801
Комментарии (0)