Проблемы функционирования искусственного интеллекта в современных электронных медиа

15.06.2024
Дата публикации
1504
Просмотров

МИНИСТЕРСТВО КУЛЬТУРЫ РОССИЙСКОЙ ФЕДЕРАЦИИ

ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ

«МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ ИНСТИТУТ КУЛЬТУРЫ»

 

Факультет МАИС

Кафедра журналистики

 

ВЫПУСКНАЯ КВАЛИФИКАЦИОННАЯ РАБОТА

Проблемы функционирования искусственного интеллекта в современных электронных медиа

 

по направлению подготовки 42.04.02 Журналистика

профиль Электронные медиа

 

Выполнила студентка:

очной формы обучения

2 курса группы 05229

Крылова Алёна Романовна

Научный руководитель:

доктор филологических наук, профессор 

Сорокина Татьяна Евгеньевна

 

Допустить к защите:

Зав. кафедрой журналистики

доктор филологических наук, профессор

Коломийцева Е.Ю. __________________

Дата допуска к защите:

«______»______________2024 г.

Выпускная квалификационная работа защищена

«______»______________2024 г.

Оценка__________________________

Секретарь ГЭК________________________




Химки, 2024

 

Содержание

 

Введение………………………..…………………………………………………3

Глава 1. Искусственный интеллект в современных электронных медиа: историко-теоретический аспект………….……………………………………8

1.1 История возникновения искусственного интеллекта….…………….8

1.2 Искусственный интеллект: понятие, классификация, область применения………...……………………………………………………………..19

1.3 Нравственно-этический аспект и безопасность при работе с искусственным интеллектом в современных электронных медиа …………..29

Глава 2. Проблемы функционирования искусственного интеллекта в современных электронных медиа ………………………………...…………49

2.1 Особенности использования искусственного интеллекта в современных новостных порталах на примере телеканала «СвоёТВ. Ставропольский край»…………………………………………………………..49

2.2 Специфика функционирования искусственного интеллекта на примере телеграм-каналов «Новости Москвы», «РИА Новости», перспективы развития …………………………………………………..………………...……60

Заключение…………………………………………………………..………….76

Список литературы…………………………………………………..………...79

Приложения……………………………………………………………..………86

 

 

Введение

 

В современном мире искусственный интеллект стал неотъемлемой частью нашей жизни. В последние десятилетия XX века и в начале XXI века одной из важнейших проблем науки и философии можно обозначить проблему развития искусственного интеллекта (англ. AI – «Artificial Intelligence»). Сейчас научное сообщество активно обсуждает возможности и перспективы использования искусственного интеллекта в различных областях, таких как медицина, финансы, транспорт, государственные услуги и т.д. Журналистика не стала исключением. Электронные медиа активно применяют технологии искусственного интеллекта для создания и распространения контента, анализа данных и взаимодействия с аудиторией. 

Несмотря на все преимущества, которые несет искусственный интеллект, его применение в электронных медиа также вызывает ряд проблем. Эти проблемы связаны как с техническими аспектами, так и с этическими вопросами. В данной работе мы рассмотрим основные проблемы функционирования искусственного интеллекта в электронных медиа и предложим возможные пути их решения.

Актуальность темы исследования обусловлена тем, что искусственный интеллект продолжает развиваться и проникать во все сферы жизни, в том числе и в медиа. С постоянным развитием технологий искусственного интеллекта возникают вызовы этического характера и препятствия, связанные с внедрением искусственного интеллекта в журналистскую деятельность. Поэтому важно понимать, какие проблемы могут возникнуть при использовании искусственного интеллекта и как их можно избежать или минимизировать. В связи с этим перед профессиональным медиасообществом встают вопросы морального выбора.

Таким образом, исследование проблем функционирования искусственного интеллекта в современных электронных медиа является актуальным вопросом, требующим внимания и глубокого анализа.

Объектом исследования являются современные новостные порталы и телеграм-каналы «Новости Москвы», «РИА Новости», телеканал «СвоёТВ. Ставропольский край».

Предмет исследования составляют проблемы функционирования искусственного интеллекта в современных электронных медиа.

Целью данной магистерской диссертации является изучение проблем, связанных с функционированием искусственного интеллекта в электронных медиа, и предложение возможных решений для их преодоления. 

Для достижения этой цели мы ставим перед собой следующие задачи:

– изучить историю возникновения искусственного интеллекта;

– проанализировать понятие, дать классификацию, рассмотреть области применения искусственного интеллекта;

– рассмотреть нравственно-этический аспект и безопасность при работе с искусственным интеллектом в современных электронных медиа;

– обозначить особенности использования искусственного интеллекта в работе современных новостных порталов на примере телеканала «СвоёТВ. Ставропольский край»;

– выявить специфику функционирования искусственного интеллекта на примере телеграм-каналов «Новости Москвы» и «РИА Новости», а также определить перспективы развития искусственного интеллекта в современных электронных медиа.

Характеризуя степень научной разработанности проблемы магистерской диссертации, следует отметить, что тема функционирования искусственного интеллекта в современных электронных медиа стала трансдисциплинарной и получила должное освещение в работах следующих исследователей в различных отраслях Т.Н. Казанцева «Искусственный интеллект и Машинное обучение. Основы программирования на Python»; П.М. Морхат «Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности, Л.С. Носовой «Искусственный интеллект в формировании профессиональных компетенций будущих педагогов» и др.

Основой теоретической базы магистерской диссертации стали научные труды А.Л. Акоповой, А.Д, Арсентьевой, Ю.И. Белокопытовой, В.А. Вевюрко, А.А. Иванова, Е.Ю. Коломийцевой, Н.М. Лазутовой, М.М, Лукиной, П.М. Морхата, А.А. Морозовой, И.А. Телепченковой, И.В. Топчего, В.В. Шляпникова и др.

Эмпирическую базу исследования составляют работы С.Г. Верещагина, В.А. Вялых, И.Д. Марголина, Н.Н. Черногора и др.

Новизна исследования определяется тем, что в рамках работы впервые предпринята попытка предложить возможные решения вопросов, связанных с оптимизацией функционирования искусственного интеллекта на современных платформах, используемых медиа, с учетом требований безопасности, эффективности, этики и соответствия интересам пользователей. Электронные медиа не изучены в достаточной степени, в связи с чем у специалистов в области журналистики возникают вопросы относительно прозрачности алгоритмов, влияния автоматизации процессов на формируемый контент, а также особенностей взаимодействия с аудиторией при использовании технологий искусственного интеллекта.

Теоретическая значимость исследования заключается в том, что в работе предпринимается попытка систематизации и структурирования вопроса внедрения технологий искусственного интеллекта в журналистскую деятельность. В контексте исследования затрагиваются исторический аспект развития искусственного интеллекта, формулируется вывод о том, что подразумевается под искусственным интеллектом в рамках журналистской деятельности, произведен анализ функционирования новостных порталов на платформах, которые ранее не изучались в рамках научной деятельности, от технической и юридической до психологической составляющей.

Практическая значимость данной работы заключается в формулировании четких рекомендаций, на какие аспекты специалистам следует обратить внимание при внедрении технологий искусственного интеллекта в работу электронных медиа с целью соблюдения всех закрепленных законом и признанных обществом правил, норм деятельности.

Методы исследования, используемые в данной диссертации, включают анализ научной литературы, изучение конкретных случаев из журналистской практики, а также анализ статистических данных. Кроме того, следует обозначить диалектический, системно-структурный, формально-логический методы. Также автором использовалась совокупность историко-правового метода, аналитического, сравнительного, грамматического и метода формальной логики. Использование метода интервью также позволит выявить актуальные проблемы по теме исследования.

Структура. Магистерская диссертация состоит из введения, основной части, заключения, списка литературы и приложений. 

Во введении обосновывается актуальность, объект и предмет исследования, определяются цели и задачи, степень разработанности проблемы и научная база, обозначена новизна, основные методы исследования, объясняется теоретическая и практическая значимость, фиксируется структура работы, количество используемых научных источников, перечисляются прилагаемые материалы.

Основная часть работы состоит из двух глав. 

В первой главе рассматривается искусственный интеллект в современных электронных медиа через призму исторического фильтра и теоретических положений; вопросы понятия, классификации и области применения искусственного интеллекта. Анализируется нравственно-этический аспект и безопасность при работе с искусственным интеллектом в современных электронных медиа.  

Вторая глава посвящена изучению проблем функционирования искусственного интеллекта в современных новостных порталах на примере телеканала «СвоёТВ. Ставропольский край» и на примере телеграм-каналов «Новости Москвы», «РИА Новости»,  также обозначены перспективы развития искусственного интеллекта . 

В заключении работы кратко описано проведенное исследование, а также сделан вывод о том, что искусственному интеллекту в рамках современных медиа еще предстоит пройти длительный путь своего становления, но уже имеющиеся результаты его работы существенно упрощают рутинные задачи во всех сферах деятельности, включая и журналистскую.

В списке литературы указано 62 источника.

В приложении представлено интервью с создателем первой в России виртуальной ведущей прогноза погоды, проект «Снежана Туманова». 

 

Глава 1. Искусственный интеллект в современных электронных медиа: историко-теоретический аспект

 

История возникновения искусственного интеллекта

 

На протяжении развития общества индивид всегда направлял все имеющиеся у него ресурсы на создание такого устройства, которое способно мыслить, как человек, и сможет стать ключевым его помощником, разгрузить от рутинной деятельности, снять ответственность с человека в сфере простых задач, которые теоретически могли бы быть делегированы и автоматизированы. Баланс ценностей на протяжении всего времени существования человека на земле смещался в пользу рационализма, что неизбежно привело к эволюционным процессам, ставшим впоследствии причиной технологического прогресса.

В каждую историческую эпоху создавалось колоссальное количество машин, которые способны выполнять за человека различного рода задачи, начиная от простейших алгоритмов, заканчивая сложными устройствами, воспроизводящими деятельность человеческого разума.

Технологии искусственного интеллекта – это направление в науке, занимающееся созданием умных, оснащенных интеллектом машин, способных выполнять такие задачи, которые требуют процессов, схожих или хотя бы приближенных к деятельности человеческого разума. История искусственного интеллекта начинается с древних времен, еще до нашей эры, когда у людей появились первые идеи создания специализированных механизмов для выполнения различных задач.

Первые мысли о создании «умной машины» возникли еще в Древней Греции.

В древнегреческих мифах рассказывается, как Гефест, бог кузнечного дела, создал для собственных нужд механизированных служанок из золота, которые помогали ему в его работе в кузнице. Гефест наделил их способностью говорить и выполнять абсолютно любые, даже самые трудные поручения.

В древнегреческих мифах зафиксированы истории о сыне титана Иапета и океаниды Климены Талосе, который так же, как и Гефест, был мастером кузнечных дел, создавшим большое количество изобретений, в том числе и огромного человекоподобного робота из бронзы, способного самостоятельно передвигаться, говорить и даже мыслить. Талос создал такого робота с целью защиты острова от недоброжелателей. Он был настолько мощным, что ни одному живому существу не подвластно было одержать над ним победу, в связи с чем этот робот стал символом могущества и мудрости древних греков. Таким образом, уже в Древней Греции существовала идея и вера в возможность создания таких устройств, которые могли бы стать помощниками людей в вопросах обороны, рутинной работы и многих других вещах.

Разбирая вопрос момента зарождения идеи создания искусственного интеллекта, стоит отметить, что Аристотель считал возможным создать такую машину, которая была бы способна разгрузить человека, выполняя некоторые из его обыденных задач, но при этом Аристотель был первым, кто поставил вопрос о возможности создания «разумной души», которая может положительно сказаться на функционировании и развитии таких областей, как производство, медицина, транспорт. При этом древнегреческий мыслитель отмечал и некоторые риски чрезмерного количества создаваемых умных машин, такие как риск сокращения количества рабочих мест, что в последствии может привести к серьезным экономическим проблемам, в связи с чем становится исключительно важным сохранять баланс в вопросе использования и создания роботов и обеспечением человека возможностью трудиться.

Учеными были установлено, что самый первый механизм, способный осуществлять расчеты, в частности, траектории движения небесных объектов,  был создан в 205 году до нашей эры и назывался «Антикитерский механизм».

Последующее развитие идеи искусственного интеллекта наблюдалось в период XI-XII веков нашей эры, когда Аль-Джазари, арабский ученый и изобретатель, создал машину, ставшую прообразом современных роботов и искусственного интеллекта, основанной на функционале зубчатых колес и рычагов, обеспечивающих высокую точность и контроль перемещений, что позволяло ей свободно двигаться в пространстве, осуществлять взаимодействие с окружающей средой. 

Позднее этим же ученым были созданы механизмы, способные к игре на различных музыкальных инструментах, к танцевальным движениям и осмысленному разговору, однако они не являлись полностью автоматизированными и нуждались в управлении живым человеком.

Аль-Джазари при создании своих механических машин использовал сложные и инновационные для своего времени пружины, зубчатые колеса, рычаги и т.д., но несмотря на всю свою уникальность, они все еще не составляют собой то, что современный человек понимает под искусственным интеллектом.

Особого внимания заслуживает то обстоятельство, что арабским ученым инновационные технологии создавались не для увеселения, а для обучения, просвещения и помощи машины в деятельности человека. Возможности механики и инженерии использовались Аль-Джазари для обучения людей различным научным и техническим тонкостям.

Средневековый период также не утратил идеи создания идентичной человеческому мышлению и деятельности механической управляемой машины, которая в перспективе способна будет интеллектуально превзойти человека, однако продолжали создаваться такие механизмы не столько для помощи человеку, сколько для демонстрации богатства, власти и силы: так, в некоторых дворцах устанавливались механические животные, способные двигаться и издавать звуки без участия человека.

Все это время идеи о создании умных машин чаще возникали у философов и мыслителей в сравнении с учеными, однако по окончанию средневекового периода фокус внимания сместился, и философы стали рассуждать больше о «вечном», нежели материальном, а инженеры все больше стали задумываться об упрощении рутинных задач и делегированию их машине, а не человеку.

К XV-XVII векам возрастает массовый интерес к разработкам механических устройств. Такие ученые, как Леонардо да Винчи, Рене Декарт, Готфрид Вильгельм Лейбниц, внесли большой вклад в модернизацию данной отрасли. Интерес к автоматизации процессов прослеживается в работах Леонардо да Винчи, он разрабатывает проект человека-робота, а также создает прообраз самоката. Позднее Рене Декарт, французский математик и ученый, разрабатывает прообраз первого робота и предлагает использовать механизм «рефлекторной дуги», которая участвует в процессе передачи импульсов от мозга к мышцам и обратно, имитируя процессы в человеческом организме, что впоследствии стало значимым опытом для дальнейшего развития механизмов искусственного интеллекта.

Итальянским математиком Кардано в XV веке создается прототип современных компьютеров, способный механически осуществлять различного рода расчеты. Английским физиком и математиком Исааком Ньютоном открывается закон всемирного тяготения, который хоть и не является «механическим изобретением», но при этом внедряется в разработки устройств с целью более точного расчета движения объектов. Немецкий ученый математик Г.В. Лейбниц создает концепцию монад, послуживших основой для последующего проектирования различных процессов искусственного интеллекта, представляющих собой мельчайшие единицы информации, имеющих различные состояния и свойства.  Им же были созданы математическая логика, теория исчисления, двоичная система исчисления, которые в дальнейшем легли в основу разработки современнейших технологий искусственного интеллекта и послужили базовыми принципами, по которым будут развиваться компьютерные науки.

Все указанные события в совокупности составляют собой процесс развития и создания элементарного искусственного интеллекта. Такие устройства, разработки, теории, концепции являются лишь предпосылками к переходу на новый этап, когда зарождается идея современного искусственного интеллекта, которая отличается тем, что ученые отходят от замысла формирования конкретных алгоритмов работы и переходят к теории создания более осмысленной машины. Такой переход произошел лишь во второй половине XX века, которая стала совершенно новым этапом развития разработки технологий искусственного интеллекта, в который включается изучение разработчиками усложненных нейронных сетей, разработка имитации функционала человеческого мозга и т.д.

В 1942 г. учеными Мак-Каллоком и Питтсом была создана первая модель искусственного нейрона.

В 1950 году британским математиком и криптографом Аланом Тьюрингом осуществлен проект, получивший название тест Тьюринга. Была сформулирована идея проверки человеком возможности создания машины, способной путем механического внедрения и последующего анализа данных разрешить ряд задач. А. Тьюринг предложил создать такую машину, результаты работы которой невозможно было бы отличить от результатов человеческой деятельности. И если действительно по результатам тестирования в большинстве случаев человек не мог различить работу непосредственно человека или машины, то есть основания полагать о наличии у данной машины искусственного интеллекта. Тест Тьюринга на сегодняшний день все еще остается актуальной идеей, на основе которой современные ученые до сих пор ведут свои исследования и разработки.

Спустя шесть лет после создания теста Тьюринга впервые был предложен термин «искусственный интеллект» на семинаре, который носил аналогичное название, проводимый в Дартмутском колледже США. Именно по результатам данного двухмесячного семинара было сформулировано, что в общих чертах следует понимать под искусственным интеллектом. Участники семинара обсуждали множество аспектов создания и функционирования устройств с использованием технологий искусственного интеллекта, что задало и основной вектор развития данной отрасли для исследователей соответствующей сферы научных интересов. Несмотря на то, что участники семинара не выразили яркого интереса к интеллектуальным системам и разработкам, данный семинар ознаменовал старт масштабных проектов в данной отрасли. Позднее будут разработаны варианты классификации искусственного интеллекта, методология работы с механизмами, но имеются существенные основания полагать, что именно этот семинар можно обозначить, как момент зарождения разработок технологий искусственного интеллекта в современном его понимании.

Последующие двадцать лет после проведения семинара в Дартмутском колледже технологии искусственного интеллекта развивались за счет инвестирования в развитие электронно-вычислительных машин. Все быстрее, качественнее и доступнее становились компьютерные технологии, их алгоритмы и возможности совершенствовались, понимание этих алгоритмов людьми возрастало. В 1969 г.  учеными Стэнфордского университета был разработан первый робот, способный взаимодействовать с людьми, выполнять более сложные задачи, по сравнению с предыдущими прототипами роботов иных ученых, он мог распознавать различные объекты и осуществлять навигацию.

В восьмидесятые годы XXвека была предпринята попытка формулирования нового определения искусственного интеллекта, которое описывало его, как ту область информатики, которая занимается разработкой интеллектуальных компьютерных систем. Примерно в это же время такие ученые, как Джон Хопфилд и Дэвид Румельхарт разрабатывали нейронные сети, способные осуществить имитацию работы человеческого разума: в алгоритмах использовались различные системы и способы обучения машины, включая метод входных данных и метод обратного распространения ошибки.

Разработки этих ученых ознаменовали старт второй волны интереса к модернизации технологий искусственного интеллекта, что стало предпосылкой для начала компьютерной революции конца 80-х – начала 90-х годов. В этот период времени создаются абсолютно новые алгоритмы обучения, которые усовершенствовали процессы обработки информации и принятия решений, появляются модернизированные методики работы с изображениями и живой речью.

К концу XX века появляются такие новые роботизированные системы, как робот Вертер (1997 г.), AI-собака Aibo от компании «Sony» (1999 г.), эмоциональный робот Kismet от Массачусетского технологического института (1999 г.). Впервые роботы наделяются первичными признаками эмоционального интеллекта, внедряются технологии распознавания эмоций и реакций на них.

Конец XX века характерен исследованиями возможностей глубокого обучения искусственного интеллекта, позволяющими работать с более сложными алгоритмами, изучать закономерности данных, однако более детальная проработка таких технологий началась лишь в 2010-х годах, когда появились соответствующие для таких работ методы и инструменты.

Наряду с этими важными вехами в истории развития технологий искусственного интеллекта можно выделить и периоды охлаждения интереса к нему:

– первый период – 60-е годы XXвека – был связан с большими проблемами неточного перевода с помощью искусственного интеллекта, а исправить ошибку не удавалось;

– второй период –  80-е годы XXвека, когда произошло резкое падение популярности так называемых экспертных систем из-за экономических причин.

В XXI веке появились новые алгоритмы и технологии работы, способствующие развитию искусственного интеллекта, позволяющие усложнить уже существующие системы, усовершенствовав их функционал, эффективность, доступность и распространенность. Вырос и увеличился функционал обработки данных, что позволило внедрить технологии искусственного интеллекта в такие необходимые для человека отрасли, как медицина, финансы, экономика, транспортная система, оперативно-розыскная деятельность, государственное управление, военное дело и многие другие. 

На основе ранее упомянутых технологий глубокого обучения создаются нейронные сети, позволяющие осуществлять самообучение устройств, обладающих искусственным интеллектом, путем извлечения информации без участия человека из имеющихся баз данных. Развивается робототехника, увеличивается уровень автономности систем и вариативности из свойств, начиная от понимания и анализа текста, заканчивая обработкой естественного языка, разрабатываются новые алгоритмы, способы и методики машинного обучения.

Компания «Google» и ее дочерние организации держат лидерство на рынке технологий искусственного интеллекта и создают в период с 2006 по 2016 гг. устройства, способные победить человека в играх, требующих аналитического мышления, как, например, шахматы и покер.

Уже в 2017 году компания «OpenAI» презентуют технологию, способную генерировать тексты на заданную тематику, причем очень схожие к тем, которые написал бы сам человек. Инновационная технология получила название GPT-2 и использовалась для создания приложений или чат-ботов, где необходима данная функция, однако и эта технология не является идеальной: все еще можно было распознать, какой текст пишет человек, а какой – роботизированная система.

Как и любое нововведение, внедрение искусственного интеллекта проходило через его отрицание, страх потери рабочих мест и сопротивление, однако уже в 2019 году технологии искусственного интеллекта развивались вынужденно, поскольку эпидемиологическая ситуация в мире не позволяла осуществлять работу в привычном и стандартном режиме, в том числе и специалистам в сфере журналистики, которые были вынуждены пользоваться разработками, позволяющими хотя бы ограниченно воссоздать возможность живого общения с респондентами, получать данные электронным образом и создавать контент в режиме реального времени, не выходя из дома. А онлайн-СМИ смогли сохранить свое выгодное положение на рынке, поскольку закрыли запрос пользователей на получение свежей и актуальной информации. Общество пришло к пониманию, что искусственный интеллект – это не развлекательные программы, а полноценный помощник, способный взять на себя ряд задач.

С завершением ограничительных мер развитие искусственного интеллекта продолжило свою эволюцию. За последние пять лет учеными и исследователями было разработано множество инновационных решений, проведено огромное количество встреч, форумов, проектов. 13 апреля 2024 года в рамках Дня искусственного интеллекта, выставки, проходившей в Москве на ВДНХ, значимым событием стало подписание Декларации об ответственной разработке и использовании сервисов на основе генеративного искусственного интеллекта.

В настоящее время создан специальный консорциум, в который вошли крупные компании российского рынка из различных сфер – «Сбербанк», «Газпром», «Яндекс», «Мэйл.Ру Групп», «МТС» и Российский фонд прямых инвестиций, – который в обозримом будущем будет сопровождать организации и проведение научных исследований в области искусственного интеллекта. Примечателен тот факт, что именно эти компании активно занимаются внедрением технологий искусственного интеллекта в свою работу: голосовые помощники отвечают на звонки, в приложениях имеются чат-боты, искусственные аналитики могут подбирать персонифицированные предложения для клиентов и многое другое, что способствует совершенствованию внутренних процессов – разгрузив человека от рутинной работы, ему предоставляется возможность осуществления когнитивных функций, на которые в настоящее время искусственный интеллект пока не способен.

Таким образом, развитие искусственного интеллекта началось задолго до создания первого прообраза умной машины, способной в некоторых вопросах заменить человека. Термин «искусственный интеллект» был введен в середине XXвека, что ознаменовало старт компьютерной революции, благодаря которой создаются первые программы, обученные воспроизводить интеллектуальную деятельность. Многочисленные инновационные разработки продвигали технологии искусственного интеллекта вперед, усложняя и совершенствуя уже имеющиеся функции.

 В современном мире технологии искусственного интеллекта стали неотъемлемой частью работы в любой сфере деятельности, поскольку ввиду многообразности функционала могут закрыть рутинные процессы, освобождая человеку время для решение более значимых задач. 

Мир в настоящий момент находится в стадии трансформации одной технологической структуры в другую, однако существует немалое количество проблем в использовании и развитии технологий искусственного интеллекта, в связи с чем преждевременным представляется предположение о том, что в скором времени машина в полной мере сможет заменить человека без потери качественных показателей деятельности. Пока еще человеческие возможности не были превзойдены технологиями. Даже несмотря на то, что искусственный интеллект справился с обучением игры в шахматы, известны случаи, когда человеку все же удавалось сохранять лидирующее положение в интеллектуальной игре.

Технологии искусственного интеллекта продолжают завоёвывать популярность среди пользователей и специалистов разных отраслей, поскольку современные компьютерные системы характеризуются значительными вычислительными и производительными мощностями, в силу чего появилась возможность создать большее количество методологических разработок обучения искусственного интеллекта, а совершенствование его алгоритмов также вызывает интерес к его развитию.

Указанное выше, ставит перед автором задачу изучения понятия и сущности искусственного интеллекта, прежде чем обозначить вопросы, которые будут исследованы в практической части работы, связанные с использованием технологий искусственного интеллекта специалистами в сфере журналистики.

 

1.2 Искусственный интеллект: понятие, классификация, область применения

 

Многие прогрессивные страны, включая и Российскую Федерацию, вкладывают колоссальное количество ресурсов для стимуляции развития технологий искусственного интеллекта, поскольку очевидно то обстоятельство, что данная сфера деятельности является одной из ключевых в настоящий момент. Конечной целью является реализация цифровой трансформации и автоматизации шаблонной, механической деятельности. В настоящий момент государство способствует развитию инновационных разработок путем создания специализированных исследовательских центров на базах высших научных учебных заведений, выделяются гранты на разработку новейших технологий искусственного интеллекта, проводятся различные семинары, лекции, мастер-майнды, форумы и иные мероприятия, способствующие обмену опытом между специалистами. Президент Российской Федерации поставил перед государством цель установления технологического суверенитета и лидерства в сфере технологий искусственного интеллекта уже в 2030 г..

Как уже отмечалось ранее, между учеными до сих пор не выработано унифицированной концепции понимания искусственного интеллекта, поскольку многое зависит от сферы деятельности, в которой данные технологии применяются соответствующими специалистами. 

Авторство самого раннего определения искусственного интеллекта принадлежит американскому ученому в области информатики, которое впервые было озвучено в 50-х годах XX века в Дартмутском университете США на конференции, посвященной технологиям искусственного интеллекта.

По теории Г.С. Осипова под искусственным интеллектом понимается объект изучения компьютерные наук, и создаваемые на его основе технологии, которые представляют собой такие технологии, которые позволяют осуществлять разумное мышление и действия при помощи вычислительных систем и других искусственно созданных устройств.

Свою версию определения предлагает П.М. Морхат, ученый, разрабатывающий новые методы обучения нейронных сетей, позволяющие более точно распознавать объекты на изображениях и понимать речь. П.М. Морхат предлагает понимать под искусственным интеллектом науку о создании интеллектуальных машин для выполнения таких задач, которые требуют участия человеческого интеллекта. Ученый при этом отмечал важность и значимость обучения машин, создания алгоритмов, упрощающих их работу и позволяющих с точки зрения результативности усовершенствовать процесс принятия решений.

Между тем, американский ученый П.Г. Уинстон рассматривал искусственный интеллект комплексно, в более широком контексте, полагая, что его технологии не могут представлять собой конечный продукт сложных научных разработок и промышленного производства, но зато являются сложным процессом человеческой деятельности, который подлежит четкой регламентации со стороны государства ввиду имеющихся рисков его неосторожного воздействия на сферы человеческой жизни.

В России также была предпринята попытка определения искусственного интеллекта, под ним следует понимать комплекс технологических решений, которые позволяют воссоздавать когнитивные функции человека, включая самообучение, поиск решений, не требующих наличие ранее существующих и заданных создателем алгоритмов, достижение инсайтов, а также получение при выполнении практически значимых задач обработки данных такие результаты, которые могут быть сопоставлены с результатами интеллектуальной деятельности человека.

Ученые в сфере юриспруденции, приверженцы материалистических теорий, предлагают искусственный интеллект определять в качестве объекта интеллектуальной собственности, не способный иметь права и обязанности, которые способен осуществлять исключительно человек, обладающий разумом и сознанием, элементами, которые не могут быть воспроизведены механически. В то же самое время, Е.Б. Подузова утверждает, что искусственный интеллект нельзя юридически квалифицировать как вещь, поскольку в данном случае стирается граница между вещью и интеллектуальной собственностью, в таком случае права создателя, организатора создания или лица, которое приобрело исключительное право на «искусственный интеллект», остаются без юридического признания и правовой защиты.

А.А. Морозова и А.Д. Арсентьева предлагают более емкое определение искусственного интеллекта, рассматривая его в тесной взаимосвязи с медиареальностью, понимая под ним прописанные человеком алгоритмы для компьютеризированной системы, которые способны выполнять работу как технического, так и творческого характера для выполнения задач, поставленных конкретным оператором. Такие интеллектуальные системы способны к анализу данных больших объемов, проверке на достоверность представленной и/или обнаруженной информации, структуризации и систематизации собранного материала, самостоятельному генерированию материалов.

Юристы И.В. Понкин и А.И. Редькина предлагают рассматривать искусственный интеллект, как искусственную сложную кибернетическую компьютерно-программно-аппаратную систему (электронную, в том числе виртуальную, электронно-механическую, биоэлектронно-механическую или гибридную) с когнитивно-функциональной архитектурой и собственными или релевантно доступными вычислительными мощностями необходимых емкостей и быстродействия.

В определении Э.М. Пройдаков отмечает, что основной особенностью искусственного интеллекта является его способность как спроектированной человеком системы создавать уникальный, не существовавший ранее продукт, который можно абсолютно обоснованно отнести к результатам творческой деятельности, присущей на генетическом уровне только человеку разумному.

Автором была изучена и трактовка определения И.А. Близнеца, в соответствии с которой под искусственным интеллектом понимается способность человека наделить компьютер, контролируемого робота или программу функцией разумно мыслить, быть способным к творчеству. Полагаем, такая формулировка некорректно отображает существующую действительность, а ученый допускает противоречие в своих тезисах, поскольку исходя из лексического значения слов способность и интеллект, интеллект в данном случае является чем-то материальным, рукотворно созданным человеком, в то время как способность является чем-то нематериальным, эфемерным, что не имеет под собой материалистической составляющей. 

В совокупности учеными выделяется несколько подходов к определению искусственного интеллекта:

искусственный интеллект должен осуществлять деятельность, подобную человеческой;

искусственный интеллект должен быть основан на человеческом поведении, что подразумевает под собой выполнение функций, требующих разума;

искусственный интеллект должен имитировать рациональное мышление;

искусственные интеллект должен быть способен принимать рациональное решение.

На основании вышеизложенного представляется очевидным о том, что вне зависимости от того, как искусственный интеллект определяют те или иные специалисты, наличие автономных процессов в таких технологиях неоспоримо, что является ключевой отличительной особенностью технологий искусственного интеллекта от иных схожих с ним систем.

Проведя анализ вышеуказанных определений, имеются основания выделить следующие черты искусственного интеллекта: 

имитирует когнитивные функции человека;

существует исключительно в цифровой среде;

способен к самообучению на основе приобретенного ранее опыта и заложенных в него данных;

наделен способностью самостоятельно принимать решения и решать задачи, как по заранее заданному алгоритму, так и без него.

Неоднократно учеными, работающими над развитием технологий искусственного интеллекта, предпринимались попытки классификации искусственного интеллекта по различным признакам: 

по типу математических задач: для разрешения задач линейной алгебры, дифференциальных уравнений, оптимизации процессов;

по характеру материала, с которыми предстоит работать: искусственный интеллект для осуществления манипуляций над текстовыми форматами, звуковыми, изображениями, видеорядами и т.д.;

по имеющемуся функционалу: генерация контента, регрессия, классификация, аналитика, кластеризация и т.д.

Самой объемной и подробной, но наиболее сложной для понимания и работы является классификация без явных критериев, которая группирует алгоритмы по имеющимся свойствам, как производительность, сложность, скорость работы.

На законодательном уровне классификация систем искусственного интеллекта закреплена ГОСТ Р 59277-2020, однако она не включает в себя такие параметры, как степень качественного развития алгоритмов, области и способу применения, тип выполняемых задач, уровень развития системы контроля безопасности и конфиденциальности, способы обработки информации, уровень автоматизации процессов и т.д.

По уровню развития искусственный интеллект можно разделить на слабый, умеренный и сильный. Эти уровни развития были предложены и обсуждались в научном сообществе, особенно в контексте технологической сингулярности:

слабый (прикладной, узкий) искусственный интеллект способен выполнять только определенные задачи, такие как распознавание образов или обработка естественного языка;

умеренный искусственный интеллект обладает более широкими возможностями и может решать более сложные задачи, такие как управление роботами или диагностика заболеваний, может выполнять задачи, требующие более высокого уровня интеллекта, например, играть в шахматы или другие сложные игры;

сильный (универсальный) искусственный интеллект представляет собой систему, способную к самообучению и принятию решений на основе анализа большого количества данных. Он представляет собой гипотетическую форму искусственного интеллекта, которая обладает интеллектом, приближенным к человеческому, и даже превосходит его. В теории данный вид искусственного интеллекта является продуктом, идентичным человеку, его сознанию, обладающим ментальными составляющими. То есть, в данном случае искусственный интеллект представляет собой не воссозданную модель разума, а сам разум, созданный руками человека. 

Некоторые эксперты считают, что достижение сильного искусственного интеллекта может привести к технологической сингулярности – моменту, когда искусственный интеллект становится настолько продвинутым, что его дальнейшее развитие становится непредсказуемым и может иметь значительные последствия для человечества.

По области применения искусственный интеллект можно классифицировать на промышленный, медицинский, военный и т.д. Промышленный искусственный интеллект используется для автоматизации производственных процессов, медицинский – для диагностики и лечения заболеваний, военный – для разработки новых видов оружия. 

Искусственный интеллект находит свое применение в различных сферах деятельности, включая медицину, финансы, транспортную деятельность, образование, социальное управление, оказание государственных услуг, оборону государства, юридическую и судебную деятельность, деятельность представителей исполнительной власти, творчество и многое другое. 

Одной из самых перспективных областей использования искусственного интеллекта является медицина. С его помощью можно анализировать большие объемы медицинских данных, выявлять закономерности и предсказывать развитие заболеваний. Кроме того, искусственный интеллект может помочь разработать персонализированные методы лечения, учитывая индивидуальные особенности пациента. 

В финансовой сфере искусственный интеллект используется для анализа финансовых рынков и прогнозирования цен на акции и валюты. Он также может помочь управлять инвестиционными портфелями и принимать решения о покупке или продаже активов. Если углубиться, то и решения о выдаче кредитных денежных средств принимаются именно искусственным интеллектом, а не живым человеком.

Транспортные системы также активно используют искусственный интеллект для оптимизации маршрутов, управления транспортными потоками и предотвращения пробок. Более того, искусственный интеллект может быть использован для создания беспилотных автомобилей и других транспортных средств. 

Образование также является областью, где искусственный интеллект может принести значительную пользу. С его помощью можно создать персонализированные образовательные программы, учитывающие интересы, способности и потребности каждого ученика. 

Искусственный интеллект может помочь анализировать большие объемы данных об успеваемости студентов и выявлять закономерности, которые могут быть использованы для улучшения качества обучения.

По типу задач искусственный интеллект можно разделить на распознавание образов, обработку естественного языка, принятие решений. Распознавание образов используется для идентификации объектов на изображениях, обработка естественного языка –для анализа текстовых данных, принятие решений –для выбора оптимального решения в условиях неопределенности.

Хотя искусственный интеллект, машинное обучение, глубокое обучение, нейронные сети и большие данные тесно связаны, они представляют разные понятия:

искусственный интеллект – это общий термин, который описывает создание машин, способных выполнять задачи, которые обычно выполняются людьми. Это может включать распознавание речи, решение сложных задач и т.д.;

машинное обучение – это процесс обучения компьютера на основе данных, которые он уже имеет. Это позволяет компьютеру автоматически улучшать свои способности без явного программирования. Машинное обучение может использоваться для различных задач, таких как распознавание образов, прогнозирование продаж и т.д.;

глубинное обучение – это подмножество машинного обучения, которое использует нейронные сети с большим количеством слоев для обработки данных. Глубинное обучение позволяет компьютерам изучать сложные зависимости и закономерности в больших наборах данных и может быть использовано для таких задач, как распознавание изображений, распознавание речи и т.д.;

нейронные сети – это тип модели, которая имитирует работу человеческого мозга. Нейронные сети состоят из слоев нейронов, которые обрабатывают информацию и передают ее дальше, и могут использоваться для решения различных задач, включая распознавание образов, классификацию данных и т.д.

Если обобщить, то глубокое обучение является подкатегорией машинного обучения, и оба они подпадают под широкое определение искусственного интеллекта. 

В машинном обучении используются алгоритмы для анализа данных, обучения на их основе и принятия обоснованных решений на основе этого обучения. 

Глубокое обучение делает то же самое, поскольку оно также является разновидностью машинного обучения. Однако особенностью глубокого обучения является то, что в нем алгоритмы организованы в несколько уровней, создавая искусственную нейронную сеть, которая также может обучаться и принимать разумные решения. Машинное обучение может использоваться с небольшими наборами данных. И при малых объемах данных машинное обучение и глубокое обучение имеют примерно равную эффективность.

С увеличением объема данных глубокое обучение значительно превосходит машинное обучение по эффективности. В машинном обучении мы сами задаем свойства, на которые будут ориентироваться наши алгоритмы. А в глубоком обучении компьютер, или, точнее, нейронная сеть, сама методом проб и ошибок определяет определенные параметры и их вес, влияющие на наши выходные данные.

Для каждой сферы деятельности существует ряд особенностей внедрения в работу технологий искусственного интеллекта, в связи с чем необходимо рассмотреть специфику внедрения таких технологий непосредственно в деятельность журналиста при работе с электронными медиа.

 

1.3. Нравственно-этический аспект и безопасность при работе с искусственным интеллектом в современных электронных медиа

 

Искусственный интеллект всё активнее становится предметом конкуренции в медиа, что предопределяет необходимость рассмотрения вопросов специфики внедрения его в деятельность журналистов. Российская медиасистема не является лидером по применению инноваций искусственного интеллекта, но имеет высокий потенциал их развития, в связи с чем довольно актуальным остается вопрос изучения специфики внедрения искусственного интеллекта в электронные медиа с точки зрения этики и безопасности. Попытки осмысления данных вопросов сопровождали развитие технологий на протяжении всего пути его становления и формирования.

Технологии искусственного интеллекта внедряются в работу журналистов, заменяя некоторые шаблонные операции. В связи с этим перед профессиональным медиасообществом встают вопросы о новых вызовах для этического регулирования и их взаимосвязи с повседневными вопросами морального выбора редакций и журналистов. Вместе с преимуществами искусственного интеллекта существуют определённые риски, связанные с его использованием.

Обсуждение внедрения искусственного интеллекта редакциями должно быть неразрывно связано с этической стороной использования технологий искусственного интеллекта в повседневной медиапрактике. Искусственный интеллект в современных электронных СМИ имеет свою специфику, которая затрагивает как вопросы этики, так и безопасности. Использование искусственного интеллекта в журналистике может приводить к ряду этических проблем, связанных с объективностью и достоверностью информации, а также с соблюдением прав и свобод граждан. Кроме того, использование искусственного интеллекта может представлять угрозу для безопасности медиа, поскольку может привести к утечке конфиденциальной информации, нарушению общепринятых морально-этических принципов или к нарушению законодательства.

Представляется очевидным, что вопросы этики в рамках проблемы функционирования искусственного интеллекта играют важную роль, потому что она помогает обеспечить ответственное и прозрачное использование этой технологии. Изучение этики искусственного интеллекта позволяет исследователям и разработчикам:

предотвращать предвзятость и несправедливость в алгоритмах искусственного интеллекта, обеспечивая равные возможности для всех пользователей;

разрабатывать прозрачные и объяснимые модели искусственного интеллекта, чтобы пользователи могли понимать, как принимаются решения;

проводить тщательную оценку этических последствий разработки и использования искусственного интеллекта на всех этапах;

обеспечивать сотрудничество между человеком и искусственным интеллектом, чтобы искусственный интеллект не заменял, а дополнял человеческие возможности;

брать на себя ответственность за результаты работы искусственного интеллекта и предпринимать меры для исправления возможных негативных последствий;

соблюдать принципы благодеяния и непричинения вреда, максимизируя преимущества искусственного интеллекта и минимизируя вред для общества.

Изучение этики искусственного интеллекта помогает создавать более справедливое и гуманное общество, где технология искусственного интеллекта служит людям, а не наоборот. Крупные изменения приводят к возникновению новых сложных этических вопросов, в связи с чем нужно изучить, чем же является этика, в том числе в рамках искусственного интеллекта.

Ученые приводят множество различных определений понятия этики: с точки зрения науки, как общественного регулятора и как способ оценки поступков.

Термин «этика» был впервые использован Аристотелем для обозначения особого раздела философии, который представляет собой учение, основанное на нравственной деятельности и добродетелях. 

В толковых словарях этика определяется также двояко: как философское учение о морали, ее развития, принципах, нормах и роли в обществе, или же как совокупность норм поведения обычно применительно к какой-либо общественной или профессиональной группе. 

Работа СМИ безусловно всегда будет связана со значимыми для человечества вопросами, в том числе и с вопросами этики, в связи с чем разработки в сфере технологий искусственного интеллекта должны взять вектор на внедрение гуманистической составляющей в алгоритмы, которые могли бы учитывать психоэмоциональные особенности человеческого разума, его сознательного и бессознательного. 

Этика имеет прямую взаимосвязь с психикой человека, с его истинной природой. А природой в свою очередь движет целесообразность, а не сострадание, эмоциональный интеллект, чувственность. Эмоциональный интеллект развивается уже в более поздний исторический период совместно с общественной эволюцией. Установление первичных социальных связей способствовало формированию первых неписаных этических правил, которые легли в основу гуманизма как результата этической эволюции.

Метафорически состояние искусственного интеллекта можно сравнить с ранними этапами развития мозга маленького ребенка, нейронные связи которого только начинают формироваться и пока что отвечают только за поддержание основных, базовых и необходимых функций. Позднее, с развитием жизненно важных структур на ранних этапах основные функции начинают регулироваться этикой и нормами, установленными социумом, а нейронные связи усложняются: растет вариативность поведения, усложняется сеть социальных связей. Сама же этика становится важным регулятором множества вопросов. Еще в XX веке, когда сфера искусственного интеллекта только зарождалась, кибернетика всегда оказывала существенное влияние на непосредственное исследование биологического и механического воздействия искусственного интеллекта на человеческий разум и сознание.

Информируя человека о состоянии мира и заполняя его досуг, массмедиа оказывают мощнейшее воздействие на массовое сознание. Немецкий социолог Николас Луман создал концепцию о реальности, конструируемой средствами массовой информации. С точки зрения Лумана, практически все, что нам известно об обществе и окружающем мире, транслируется через массмедиа. Однако в век информационных технологий полезная информация транслируется совместно с информацией вредоносного характера, которая, воздействуя на сознание, оказывает разрушительное воздействие на психику человека. 

В связи с появлением и развитием различных технологий возник термин «технологическая этика» или «техноэтика». Это применение этических принципов к технологическим инновациям. Этика искусственного интеллекта является одним из направлений «техноэтики». Говоря об этике искусственного интеллекта применительно к медиа и журналистике, стоит отметить, что профессиональная журналистская деятельность сейчас затрагивает множество аспектов, связанных с технологиями, поэтому журналистам приходится учитывать эти изменения, а также корректировать и уточнять некоторые положения этических кодексов.

Этика искусственного интеллекта исследует моральную ответственность создателей интеллектуальных систем за результаты их работы. Вот некоторые этические проблемы, связанные с использованием технологий искусственного интеллекта: 

этические вопросы, связанные с системами искусственного интеллекта как инструментами, созданными и используемыми людьми. Анонимность является существенной составляющей этики в искусственном интеллекте. Системы искусственного интеллекта могут собирать и обрабатывать большие объемы данных, включая личную информацию, такую как ФИО, адреса и номера социального страхования. Приобретает важность гарантировать, что данные, собранные и обработанные системами искусственного интеллекта, будут защищены и не будут использоваться без согласия лиц, к которым они относятся. 

Прозрачность также является неотъемлемой частью этичного использования систем искусственного интеллекта. Пользователям и обществу необходимо иметь возможность понять, как работают системы искусственного интеллекта и как они принимают решения. Это может включать предоставление информации о том, какие данные используются для обучения системы, какие алгоритмы применяются и как система принимает решения. Предвзятость также может возникать в системах искусственного интеллекта из-за предвзятых данных или алгоритмов. Важно обнаруживать и устранять такую предвзятость в системах искусственного интеллекта, чтобы обеспечить, что они не приводят к несправедливым или дискриминационным результатам;

этические проблемы, связанные с системами искусственного интеллекта как субъектами, то есть с этикой самих систем искусственного интеллекта. Системы искусственного интеллекта могут подчиняться этическим нормам и правилам, которые определяют их поведение и взаимодействие с людьми и другими системами. Однако создание этического кодекса или искусственной морали для искусственного интеллекта является сложным и противоречивым процессом, поскольку этические принципы могут различаться в разных культурах и обществах. 

При этом, учитывая многонациональный характер Российской Федерации, весь материал, создаваемый при помощи технологий искусственного интеллекта, должен подлежать тщательнейшей проверке с целью исключения возможности дискриминации человека по тому или иному признаку, что недопустимо ввиду положений Конституции Российской Федерации, включающей в себя в том числе и этические нормы, на которых строится вся жизнь российского сообщества. 

Более того, поскольку искусственный интеллект все же создается человеком, то существует риск неосознанного внедрения алгоритмов предвзятости, поскольку человек – существо живое, эмоциональное, обладающее своими предрассудками и суждениями, а исключать данный фактор при создании искусственного интеллекта не представляется возможным, что может задать вектор поведения, не отвечающий требованиям толерантности.

Кроме того, существует опасность, что системы искусственного интеллекта могут стать предвзятыми или непрозрачными в своих решениях, что может иметь негативные последствия для общества. Это требует тщательного изучения и постоянного обновления этических стандартов, чтобы гарантировать, что системы искусственного интеллекта действовать справедливо и учитывать потребности и ценности всех людей;

проблема возможного появления в будущем искусственного сверхразума, ведущего к «технологической сингулярности», то есть к моменту, когда развитие искусственного интеллекта станет неконтролируемым и необратимым, что приведет к кардинальному изменению образа человеческой цивилизации. Появление в привычной жизни человека элемента, лишенного самоидентификации, подчиненного алгоритмам, обход которых без участия человека невозможен, повлечет за собой возникновение такой ситуации, когда человек, наделенный волей, будет вынужден подчиняться не другому человеку, наделенному волей, а «машине», подчиненной алгоритму;

создание искусственного интеллекта без учета этических норм и социальных проблем на политическом уровне в основном сосредоточено на техническом и экономическом уровнях. Лишь некоторые ученые в области философии и общественных наук начали обращать внимание на эти и связанные с ними проблемы. Однако эти обсуждения не получили должного внимания в государственной политике и не были всесторонне изучены и обсуждены. Поэтому отсутствие адекватной и всеобъемлющей политики в этой области вызвало ряд этических проблем;

технические ограничения из-за несовершенства систем искусственного интеллекта. Технологии искусственного интеллекта не способны на самостоятельное выражение эмоций, в связи с чем система в основном опирается на алгоритмы для обучения и формирования суждений, человеческие ценности и моральные принципы трудно внедрить в алгоритм. 

Таким образом, для решения этих проблем необходимо разработать новые стандарты и нормы этики в сфере использования искусственного интеллекта в журналистике. Эти стандарты должны учитывать специфику работы искусственного интеллекта и обеспечивать защиту прав и свобод граждан, а также гарантировать достоверность и объективность информации. Кроме того, необходимо проводить обучение журналистов и редакторов по вопросам этики и безопасности при использовании искусственного интеллекта в работе.

Нельзя исключать то обстоятельство, что однажды искусственный интеллект перейдет во «взрослую» фазу и тогда крайне остро будет стоять вопрос формирования более сложной и формализованной системы регулирования, однако здесь встает актуальный вопрос баланса между конституционно предоставленной гарантией свободы слова и контролем и регулированием.

На важность этических правил в сфере искусственного интеллекта обращал внимание президент Российской Федерации Владимир Владимирович Путин на международной конференции «Путешествие в мир искусственного интеллекта» 04.12.2020 г., что отражается в Национальной стратегии развития искусственного интеллекта. 

Технологическая этика, этика в СМИ, в социальных сетях отличается от базовых вопросов этики ввиду осложненности именно технологическим фактором. Понимание технологической составляющей является необходимым условием для объективного выявления и реалистичной оценки рисков создания и внедрения технологий искусственного интеллекта, поскольку именно это позволит сосредоточиться на решении объективно существующих, а не надуманных проблем. 

Одной из этических проблем внедрения искусственного интеллекта Н.М. Лазутова называет отдаление журналистов от реальности, когда основной этический принцип журналистики заключается в поиске истины и получении достоверной информации о реальности. Искусственный интеллект может помочь журналистам автоматизировать рутинные задачи, анализировать данные и создавать контент, но это не должно заменять поиск истины и предоставление достоверной информации о реальности. Важно, чтобы журналисты сохраняли критическое мышление и оставались ответственными за качество своих материалов. По мере развития нейросетей создаваемый ими мир начинает соперничать с реальностью. Если журналисты не будут соблюдать этические нормы, используя эти технологии, это поставит под угрозу существование журналистики. 

Однако уникальный эксперимент американского кибернетика Джозефа Вейценбаума стал доказательством того, что вопросы этики могут стать решаемыми. В 1964 г. ученым был запущен проект «Элиза», который заключался в создании машины, имитирующей действия психиатра, а люди, проходившие эксперимент, в большинстве случаев не предполагали, что ведут диалог с машиной, а не человеком. 

Этот эксперимент заложил предпосылки к возникновению и последующему развитию теории о том, что вопросы этики смогут трансформироваться в «цифровой код», и в дальнейшем угроза правонарушений в части этических и моральных представлений будет снижена до минимальных показателей. И все же на сегодняшний день искусственный интеллект все еще нуждается в операторе-человеке, который будет контролировать все его действия по вопросу сохранения в работе принципов базовой морали, этики и действующего законодательства.

Вместе с преимуществами, такими как автоматизация задач, анализ данных и персонализация контента, возникают также сложности в разрешении вопросов безопасности при внедрении технологий искусственного интеллекта в деятельность электронных медиа.

Одной из главных проблем безопасности при внедрении искусственного интеллекта в журналистику выступает угроза конфиденциальности данных. Искусственный интеллект может собирать и анализировать большие объёмы информации о пользователях, что может привести к утечке личных данных и нарушению приватности. 

Данный вопрос является в том числе и этической проблемой. Материалы становятся потенциально доступными для третьих лиц, а информирование о сборе персональных данных становится формальным и пользователь его дает не осознанно, а скорее с целью того, чтобы избавиться от навязчивых всплывающих окон, осложняется это и тем, что многие социальные сети, новостные и кроссплатформенные площадки не  могут обеспечить надлежащим образом защиту персональных данных пользователей, что, в целом, подрывает авторитет данных источников, снижая количество авторизированных пользователей, а это, в свою очередь, создает препятствия в генерировании персонифицированного контента. 

Персонализация контента на основе интересов и предпочтений читателей помогает повысить их вовлеченность и удовлетворять их информационные потребности, однако если имеются препятствия в генерации такого контента, снизится поток читателей, что очевидно отразиться на прибыльности новостных каналов.

Помимо прочего искусственный интеллект может быть использован для создания ложной или искажённой информации, что может привести к дезинформации и манипуляции общественным мнением. Это особенно опасно в контексте журналистики, где важно предоставлять объективные и достоверные сведения, например, в случае проведения голосования и выборов, где каждый человек должен быть обеспечен достоверной информацией, чтобы быть уверенным в правильности и добровольности принятого решения. 

Разработчикам искусственного интеллекта, создающим программы и системы именно для новостных порталов, следует тщательно прорабатывать вопрос прозрачности и фильтрации информации, а в будущем – и разработать систему, которая бы полностью могла взять на себя задачу фактчекинга, сняв простейшие задачи со штатного специалиста.

Предоставление искусственным интеллектом недостоверной информации может быть вызвано несколькими причинами. Так, например, искусственный интеллект обучается на больших объёмах данных, которые не всегда проверены и достоверны. Искусственный интеллект при этом не обладает критическим мышлением, поэтому он может подбирать ненадёжные источники или придумывать ответы. 

Искусственный интеллект уже обучен создавать тексты выступлений для политиков, писать эссе, создавать изображения, формировать фотоматериалы и даже генерировать видео-контент, неотличимый от реальности. Они также поддерживают общение пользователей в интернете и создают разнообразный медиаконтент и даже медиадискурс. Отличить созданную информацию от реальной обычному пользователю представляется довольно затруднительным, в связи с чем краеугольным камнем является вопрос о внедрении функций фактчекинга для искусственного интеллекта с целью исключения трансляции в общество недостоверных новостных сводок. 

Часто темы для публикаций создаются путём случайного комбинирования персонажей и актуальных вопросов, без доказательств и с намеренной атмосферой таинственности. Некоторые каналы предупреждают, что информация может быть недостоверной или простым слухом, но в целом новостные порталы, использующие искусственный интеллект, публикуют информацию уверенно без каких-либо оговорок. 

Трансляция недостоверной информации оказывает влияние не только на авторитет публикующего ее издания, но и на ментальное состояние аудитории: пользователи с тонкими каналами восприятия при выяснении обстоятельства, что им была предоставлена недостоверная информация (особенно, если этот факт происходил неоднократно), могут приобрести состояние тревожности, недоверия к внешнему миру, беспокойство относительно вопроса стабильности и доверия к «четвертой ветви власти». 

Примечателен тот факт, что журналисту, занимающемуся созданием контента, удобнее работать с эмоциально стабильной и здоровой аудиторией, поскольку она более предсказуема в своих реакциях на новостные сводки, то есть журналисту становится проще предугадать, какой материал с какими смысловыми акцентами больше откликнется его аудитории. И при наличии такого мощного механизма воздействия на человеческий разум особенно важно заботиться о том, чтобы политика в части содержания новостных сводок воспринимался таким образом, как изначально это было запланировано автором. 

В противном случае, после каждой публикации СМИ будут вынуждены смещать фокус внимания в своем контенте с одной ключевой мысли на другую, что отрицательно отразится на продуктивности и результативности издания, поскольку аудиторию придется «прогревать» к каждой новой публикации: в зоне риска окажутся охваты, кликабельность, посещаемость, просматриваемость, что впоследствии отразится и на финансовой составляющей издания. 

Одной из задач журналиста становится оценка восприятия человеком информационного материала с целью прогнозирования дальнейших реакций на материал и подготовку соответствующего этим прогнозам новостной сводки. Более того, поскольку крупным СМИ приходится конкурировать за внимание с блогерами, чтобы выжить, им необходимо максимально тщательно готовить и проверять подготавливаемый материал.

Другой значимой проблемой безопасности внедрения искусственного интеллекта в работу СМИ в настоящее время выступает отсутствие чётких, регламентированных законодателем норм, правил и стандартов, регулирующих использование искусственного интеллекта в журналистике. Указанное осложняется отсутствием четкого понятия искусственного интеллекта, поскольку в настоящее время нет единого определения искусственного интеллекта, что затрудняет его правовое регулирование. Различные страны и организации используют разные подходы к определению искусственного интеллекта, что создаёт путаницу и сложности в правовом контексте. Существует четыре основных подхода разных правовых систем к определению правового статуса искусственного интеллекта: 

искусственный интеллект, как человек;

искусственный интеллект, как юридическое лицо (реальными субъектами правоотношений в юридическом лице остаются единственно возможные носители правосубъектности – физические лица);

statusquo (является объектом права, а не субъектом);

искусственный интеллект – новый самостоятельный субъект права.

Понимая необходимость правового регулирования даже авторами художественной литературы отмечались вопросы, на которые законодателю следовало бы обратить внимание. Так, например, А. Азимов, обращал внимание на то, что робот, осуществляя свою деятельность, должен ставить в приоритет недопустимость причинения человеку вреда или иного ущерба, невозможность факта неповиновения заданным командам, самостоятельное обеспечение заботы о своем технологическом состоянии в рамках возможного.

При создании законодательных норм, регулирующих правоотношения, возникающие в связи с функционированием технологий искусственного интеллекта, законодатель должен всегда держать во внимании вопрос о том, смогут ли они предвидеть результат действий самообучающегося искусственного интеллекта при скорости обработки данных, свойственной суперкомпьютеру, и в результате появления иных прорывных технологий.

Определяя искусственный интеллект как разумную модель с самостоятельным интеллектуальным поведением, перед законодателем встает вопрос об определении правосубъектности такой машины. С точки зрения права под правосубъектностью понимается возможность лица иметь право совершать определённые действия или отказываться от них по своему желанию. 

Ключевым моментом в данной проблеме является то обстоятельство, при котором искусственный интеллект не обладает свободой воли, что является важным условием для приобретения правосубъектности, но указанное не исключает его способности разумно мыслить, принимать решения, способные нанести вред или ущерб обычному человеку. Одна недостаточно проверенная новость или сводка может нанести непоправимый ущерб деловой репутации организации или отдельной личности, а кто будет нести ответственность за такие нарушения – законодателем в настоящий момент не определено, ведутся разные споры относительно правовой природы искусственного интеллекта. Ответ на вопрос, кто же будет нести ответственность за неправомерные действия искусственного интеллекта, повлекшие собой причинение вреда или ущерба человеку, затруднен еще и тем, что информационное наполнение и развитие искусственного интеллекта начиная с определенного момента может происходить совсем без участия лица, обеспечившего программно-аппаратное воплощение соответствующей искусственной нейронной сети.

Отсутствие отлаженных правовых механизмов влияния на представляемые материалы приводит к появлению информации, носящей ярко выраженный общественно опасный характер: ресурсы националистического, фашистского, расистского содержания, различного рода дезинформация, порнографическая продукция, рецепты изготовления и платформы для приобретения наркотических и психотропных веществ, в то время как журналист в рамках одной из задач должен наоборот противостоять распространению противоправных материалов.

Некоторыми зарубежными законодателями предпринимались попытки наделить искусственный интеллект правовым статусом, создав новый субъект правового регулирования, как «электронная личность». 

Так, например, Саудовская Аравия стала первым государством, предоставившим роботизированной системе гражданство страны, что представляется довольно противоречивым фактом ввиду отсутствия ключевых признаков правосубъектности. Такие действия стирают грани между виртуальным миром и реальностью, создавая проблемы в правовом регулировании складывающихся по поводу правоотношений в сфере искусственного интеллекта. Однако не представляется возможным установить, каким же образом будет нести именно юридическую ответственность искусственный интеллект, поскольку наделение таких машин «разумом» в понимании возможности создания, генерирования и работы с информацией не дает основания предполагать, что наложение любого рода санкций на машину, обладающую искусственным интеллектом, будет нести под собой основную воспитательную и профилактическую функцию. Пример наказания одной машины с искусственным интеллектом не будет примером для другой машины с искусственным интеллектом, который повлияет на выстраивание таких причинно-следственных связей, что алгоритм самостоятельно сможет заложить себе ограничение на осуществление тех или иных поступков, поскольку привлечение к ответственности – это более эфемерное понятие, применимое только к существую, обладающему не только разумом, но и чувствами, эмпатией, сочувствием и состраданием. 

К примеру, даже в случае воспитания животного, у него складываются причинно-следственные связи, когда на уровне ощущений закладывается модель, при которой одно действие влечет за собой противодействие (наказание), и после двух-трех таких воздействий животное не будет проявлять в своем поведении такие действия, которые повлекут для него негативные последствия.

В то же время современные разработки искусственного интеллекта пока еще не могут сформировать причинно-следственные связи, основанные на эмоциональном восприятии своих и чужих поступков, в связи с чем привлечение искусственного интеллекта к юридической ответственности не будет выполнять необходимых функций. 

Вопросы ответственности все же требуют более сложного психоэмоционального восприятия, и законодатель в данном случае понимает это, привлекая за правонарушения к ответственности либо создателя искусственного интеллекта, либо лицо, управляющее искусственным интеллектом. Именно в таком ключе и должна развиваться мысль законодателя, поскольку, применяя санкции к машине, невозможно будет достичь цели наказания, а именно профилактического и/или воспитательного эффекта. 

Ценность машин и механизмов, осуществляющих свою деятельность на основании программ искусственного интеллекта, никогда не превысит ценности человеческой жизни, в связи с чем такие санкции должны применяться индивидуально, что как раз и будет являться реализацией отправной цели правосудия.

Таким образом, возможность выполнения когнитивных функций, наличие осознанного и целенаправленного характера деятельности вычислительной программы еще не является основанием для наделения искусственного интеллекта правосубъектностью.

Внедрение искусственного интеллекта в журналистику может способствовать увеличению рисков осуществления кибератак и взломов, поскольку правонарушители, обладающие достаточным уровнем знаний и навыков по части функционала искусственного интеллекта, могут использовать уязвимости в системах и алгоритмах искусственного интеллекта для получения неправомерного доступа к конфиденциальной информации.

Пока что работа искусственного интеллекта регулируется в недостаточной степени со стороны законодателя: создателям, компаниям и пользователям программами искусственного интеллекта приходится самостоятельно между собой договариваться о правилах работы и этики работы с искусственным интеллектом. В настоящем тысячелетии были созданы десятки кодексов этики, регулирующих вопросы применения технологий искусственного интеллекта. 

В России также был создан «Национальный кодекс этики искусственного интеллекта», отражающий моральные паттерны, вектор на продвижение гуманизма, основанные на уважении и свободе воли человека, а также на ответственном отношении к закону и оценке возможных рисков использования технологий искусственного интеллекта. Как правило, такими кодексами регулировались вопросы открытости и справедливости работы алгоритмов, кибербезопасности, исключение возможной дискриминации пользователей и т.д., но не прямое разрешение вопросов на случае причинения вреда человеку или иному субъекту права.

Однако вопросы ответственности эти правила не разрешают, что оставляет вопрос безопасности применения технологий искусственного интеллекта неразрешенным. 

Неопределенным остается и правовой статус продукта деятельности искусственного интеллекта, поскольку его создателем напрямую не является человек, что исключает возможность включить результаты такой деятельности в гражданский оборот. Возникает вопрос о правомерности наделения исключительным правом автора произведения, где проводить границы между творчеством и использованием каким-либо человеком технологий искусственного интеллекта в качестве инструмента для создания объектов права по всем отраслям деятельности общества; останется ли место для обычного человека в творческой среде или данное направление деятельности будет полностью отдано искусственному интеллекту.

Помимо прочего законодателем также остается неурегулированным вопрос правомерности использования искусственным интеллектом находящихся в свободном доступе электронных материалов без отсылки на них, без получения согласия автора на переработку своего материала, без компенсации за нарушенное право собственности на результат интеллектуальной деятельности. Это связано с алгоритмами работы искусственного интеллекта: при обработке запроса искусственные интеллект анализирует большой перечень данных, находящихся в свободном доступе, работает с ним и выдает результат. 

Отсутствие прямого согласия автора, чей материал использовал искусственный интеллект для разрешения задачи, несет в себе угрозу нарушения прав интеллектуальной собственности, что образует отдельное поле для работы законодателя. Такой метод обучения нейросистем прозвали «пиратским», а крупные медиахолдинги считают, что разработчики таких методов обучения должны нести ответственность за нарушение авторского права.

Скорость разработок и внедрения искусственного интеллекта должно соответствовать скорости развития законодательства в этой области, однако сейчас такой баланс не соблюдается, в связи с чем персональные данные, деловая репутация и моральная составляющая сторон, чья жизнь поставлена во взаимодействие с искусственным интеллектом, находится под угрозой, и именно на данный аспект стоило бы обратить законодателю отдельное внимание.

Любые риски внедрения новых технологий должны восприниматься разработчиками искусственного интеллекта как новое поле для деятельности, воспроизводя идею о том, что действие рождает противодействие. Разрешая вопрос риска, у разработчиков алгоритмов искусственного интеллекта есть возможность создать новые, ранее неизвестные технологии, которые закроют брешь в использовании искусственного интеллекта, а, следовательно, наличие рисков должно не тормозить процесс развития, а наоборот, мотивировать его ускорение.

Безопасность внедрения искусственного интеллекта в журналистику – это сложный и многогранный вопрос, требующий внимания и решения со стороны профессионального сообщества. Однако при правильном подходе и соблюдении этических норм искусственного интеллекта может стать мощным инструментом для улучшения журналистики и обеспечения безопасности данных пользователей.

Следует отметить наличие в профессиональном сообществе осознание необходимости глубокого понимания вопросов этики и безопасности, связанных с применением и внедрением искусственного интеллекта в деятельность журналистов. Указанное включает в себя вынесение на повестку обсуждение вопросов конфиденциальности данных, прозрачности алгоритмов, недопущение случаев распространения персональных данных.

На основании изученного материала, в рамках исследования будут рассмотрены проблемы функционирования и использования искусственного интеллекта в современных электронных медиа на конкретных примерах

Глава 2. Проблемы функционирования искусственного интеллекта в современных электронных медиа 

2.1. Особенности использования искусственного интеллекта в работе современных новостных порталов на примере телеканала «СвоёТВ. Ставропольский край»

 

В современном мире, где информация играет ключевую роль в формировании общественного мнения и принятии решений, новостные порталы стали неотъемлемой частью нашей повседневной жизни. С развитием технологий и проникновением интернета во все сферы деятельности, новостные ресурсы активно используют искусственный интеллект с целью оптимизации их работы, улучшения качества информации и повышения доверия со стороны пользователей. Уильям Аренс утверждает, что новые медиа и социальные платформы представляют собой информационную магистраль, то есть самую быстроразвивающуюся среду в истории коммуникации.

Активное внедрение технологий искусственного интеллекта в стандартные процессы новостных порталов началось лишь в 2015 г., что предопределило начало нового этапа, переведя журналистику в эпоху цифровой революции, это схоже по своей сущности с процессом реформирования традиционных СМИ. Обработать весь имеющийся сейчас в открытых источниках объем информации не представляется возможным. Каждая новость может стать потенциально интересной для пользователя, а упущение таких новостей в количестве имеющегося объема информации может оказать существенное влияние на трафик электронных медиа, следовательно, и на получение дохода от рекламных интеграций, размещаемых на новостных порталах. Указанные причины вынуждают новостные порталы внедрять в свою деятельность такие инструменты, которые могли бы снять со специалистов рутинные задачи, и на помощь в данном случае приходят именно технологии искусственного интеллекта.

Особенность использования искусственного интеллекта в современных новостных порталах заключается в первую очередь в том, что СМИ обращаются к технологиям не столько с целью генерирования нового информационного материала, сколько для того, чтобы как можно быстрее и эффективнее проанализировать свою целевую аудиторию в целях составления наиболее усредненного прообраза своих читателей для предложения материала, какой с наибольшей вероятностью заинтересует пользователей и обеспечит их взаимодействие со СМИ, гарантируя охваты, продвижение контента и его распространения.

Анализируя всевозможные новостные порталы, использующие разные площадки для публикаций своего контента, можно отметить, что российские электронные медиа, использующие различные платформы, в том числе и зарубежного происхождения, для распространения новостных сводок не применяют полноценно технологии искусственного интеллекта. Большинство каналов просто распространяют новости, используя для этого живых людей или автоматические системы. Новостные порталы в большинстве своем не используют в своей работе искусственный интеллект по нескольким причинам: 

стоимость. Использование искусственного интеллекта для анализа и классификации новостей может быть довольно дорогим. Многие телеграм-каналы стараются экономить на ресурсах и не вкладывать большие суммы в технологии. Искусственный интеллект в медиа выступает привилегией крупных игроков, а российская медиасистема не является лидером в использовании инноваций, связанных с искусственным интеллектом, но у нее есть большой потенциал для их развития. Российская индустрия только начинает работать над этим направлением и планировать его развитие, на сегодняшний день только крупные новостные порталы с большим финансовым оборотом могут позволить себе внедрять технологии искусственного интеллекта в свою деятельность;

сложность. Внедрение искусственного интеллекта требует определенных знаний и навыков, которые могут быть недоступны для большинства новостных порталов, не все специалисты могут разрешить многие технологические вопросы. При этом перед компаниями ввиду обозначенных в предыдущей главе сложностей стоит вопрос о том, какие задачи могут быть автоматизированы и переданы на функционал искусственного интеллекта;

эффективность. Не все новостные порталы могут увидеть прямую выгоду от использования искусственного интеллекта, поскольку всегда ждут результата здесь и сейчас. Они ориентированы на распространение информации, а не на анализ и классификацию, однако привычные действия по заложенным стандартам не отвечают вопросам эффективности, следовательно, новостные порталы сами себе создают иллюзию отсутствия результативности работы с искусственным интеллектом. Количество ресурсов, вложенных во внедрение искусственного интеллекта в шаблонные действия новостных порталов, со временем окупятся и принесут тот результат, на который изначально был взят вектор работы;

конфиденциальность. Некоторые новостные порталы опасаются, что использование искусственного интеллекта может привести к нарушению конфиденциальности пользователей. Данное опасение не является надуманным, однако, привлекая компетентных специалистов, новостные порталы могут обеспечить необходимый уровень защиты персональных данных, но этот аспект возвращает автора к высокой стоимости внедрения технологий искусственного интеллекта, как причине работы специалистов по устаревшим методам и устаревшими инструментами.

Однако, есть телеграм-каналы новостных порталов, которые используют искусственный интеллект для анализа новостей и их классификации, например, канал «AI-News» (https://t.me/AI_news_channel). Канал посвящен новостям в области искусственного интеллекта и машинного обучения, а основной контент состоит из статей, исследований, новостей, интервью и обзоров, связанных с искусственным интеллектом и ML.

Используя технологии искусственного интеллекта, новостные порталы могли бы существенно модернизировать свою работу. Одной из особенностей использования искусственного интеллекта в современных новостных порталах является то, что он позволяет автоматизировать процесс сбора, анализа и классификации информации. Это позволяет новостным ресурсам быстрее реагировать на события и предоставлять пользователям более точную и актуальную информацию, а скорость ее распространения является существенным фактором для сохранения лидирующих на рынке позиций. 

Увеличивая скорость, СМИ может быстро получить большое количество контента, который представляет значимость для целевой аудитории. 

Еще одной технологией, способствующей скорости обработки и формулирования новостной сводки, является функция компьютерного зрения, используемая, к примеру, агентством «Reuters». Их алгоритмы применяются с целью фактчекинга, отбора нужных частей информационного контента и ранжирования его по принципу от наиболее достоверного и значимого к менее правдивому и заслуживающему внимания.

Кроме того, искусственный интеллект может использоваться для создания персонализированных рекомендаций на основе предпочтений каждого пользователя, что делает процесс поиска информации более удобным и эффективным. Искусственный интеллект взаимодействует с пользователем с целью создания его персонального профиля, чтобы предлагать ему именно те информационные материалы, которые с наибольшей вероятностью заинтересуют его и приведут на сайт СМИ, разместившего эти материалы. Таким образом, СМИ гарантирует себе просмотры и обратную связь от пользователей.

Технологии искусственного интеллекта позволяют создать уникальный персонифицированный контент, который заставит пользователя снова и снова обращаться к тем новостным порталам, которые индивидуально учитывают его интересы, предлагая ему такую подборку новостей, которая увеличит среднее время нахождения читателя на портале. Так, например, функционально и содержательно полезным стало внедрение «Financial Times» алгоритма, который анализирует, сколько статей, какого характера и содержания прочитал их пользователь, и на основании этих данных предлагает наиболее релевантные для читателя новостные сводки.

Интересным примером использования искусственного интеллекта в медиа является создание виртуальной ведущей прогноза погоды с помощью нейросетей на телеканале «СвоёТВ. Ставропольский край».

Идея создания ведущей прогноза погоды с помощью нейросетей возникла у Алексея Папчени из стремления и необходимости оптимизировать производство и упростить процесс создания телепрограмм. Более того, использование программ и процессов, ранее неиспользуемых конкурентами телеканала, стало мощной пиар-кампанией телеканала «СвоёТВ. Ставропольский край», в результате чего количество зрителей данного телеканала возросло, что определенно отразилось и на финансовых показателях организации. Конечно, пиар-кампания не являлась самоцелью проекта, однако стала приятным бонусом для компании. Так, был разработан уникальный проект виртуальной ведущей прогноза погоды под названием «Снежана Туманова». Имя ведущей выбрано не случайно, оно отражает виды погодных условий.

Снежана – это созданная на основе трех популярных нейросетей виртуальная ведущая прогноза погоды телеканала «СвоёТВ. Ставропольский край». Снежана обслуживается специально обученным человеком, который собирает для нее всю необходимую информацию, загружает в программу ведущей и задает ряд команд для генерации иллюстративного, видео, текстового материалов. Процессы, внедренные в технологии интерактивной ведущей, автономные, не занимают колоссального количества времени, в связи с чем редактор в течение получаса может передать для запуска в эфир свежую сводку прогноза погоды.

Снежана стала популярным продуктом среди зрителей благодаря своей реалистичной внешности и умению шутить. Она выходит в эфир ежедневно с прогнозом погоды и раз в неделю с расширенными программами о цветении и бурях. Снежана рассказывает о температуре и осадках в Северо-Кавказском федеральном округе 5 раз в день.

Снежана стала хорошим дополнением к команде, не заменив при этом живого человека, ведущего прогноз погоды, поскольку в ней все еще отсутствуют функции, присущие живому человеку. Роботизированные ведущие не обладают способностью к творчеству и импровизации. Снежана пока не может придумывать оригинальные идеи и истории, она работает только по четко заданным человеком алгоритмам. При этом роботизированные ведущие не способны ни понимать, ни передавать эмоции, что в свою очередь может негативно сказаться на восприятии их аудиторией. В случае Снежаны, разумеется, и нет необходимости проявлять эмоциональный интеллект ввиду характеристики ее работы, прогноз погоды не требует эмоционального вовлечения. Ей не нужно разговаривать на спорные или неоднозначные темы, информирование о предстоящей погоде эмоционально не затрагивает зрителей. 

Таким образом, нейросети стали отличным помощником в телепроизводстве, освободив время и ресурсы для решения других вопросов.

Хотя создатели утверждают, что проблема очеловечивания отсутствуют при трансляции Снежаны в новостных сводках, полагаю, данные вопросы все же возникают. Зрители начинают воспринимать её как реального человека, забывая, что это всего лишь искусственный интеллект. Это может привести к разочарованию и недопониманию, когда пользователи ожидают от виртуальной ведущей человеческих эмоций и реакций. Алексей Папченя рассказал в своем интервью (Приложение 1), что у Снежаны есть аккаунт в социальных сетях, ей присылают цветы, ее включают в рабочие чаты, ей признаются в любви, она сама дает интервью.

В случае со Снежаной, редакция осознанно погружает свою аудиторию в виртуальный мир, подменяя реальность искусственно созданным человеком, который пока еще не обладает достаточным уровнем эмпатии для того, чтобы отсутствие взаимодействия с живым человеком стало безопасным для психоэмоционального развития человека, однако ряд рисков воздействия на психику человека все же имеется, что подтверждается тем фактом, что многие телезрители воспринимают виртуальную телеведущую, как живого человека. 

Яркой иллюстрацией значимости сохранения взаимодействия с живым человеком является эксперимент Stillface, проведённый американским психологом Эдвардом Троником, в котором изучалось, как дети раннего возраста взаимодействуют со взрослыми. 

Предпосылками эксперимента StillFace были исследования в области психологии развития и привязанности между матерью и ребёнком. Эксперимент проводился для изучения характера влияния эмоциональной недоступности матери на развитие ребёнка. В начале эксперимента молодая женщина общалась со своей годовалой дочерью, используя голос, прикосновения и жесты. Затем она демонстрировала «неподвижное лицо», на котором не было никаких эмоций, и переставала реагировать на поведение ребёнка.

Девочка заметила перемену и пыталась различными способами вернуть внимание матери, посылая ей положительные сигналы, такие как улыбка, прикосновения и указания на предметы. Со временем эмоциональный фон ребёнка ухудшался, она начинала резко вскрикивать, бить руками и кусать кулаки. В конце эксперимента девочка отворачивалась и плакала, но успокаивалась, когда мать возвращалась к прежнему поведению. Указанное свидетельствует о наличии серьезного воздействия на формирование ключевых психоэмоциональных реакций, отвечающих за нормальное функционирование человека в социуме. То есть замена человека на роботизированную систему создает угрозу механизации человека, которая более опасна, нежели процесс очеловечивания машин.

Эксперимент StillFace важен для изучения воздействия искусственного интеллекта на человека, в том числе и потому что он показал, что искусственный интеллект способен преодолевать «эффект зловещей долины» – роботы или объекты, похожие на человека вызывают неприязнь и отвращение у людей. В этом эксперименте учёные из университета в Беркли доказали, что люди больше доверяют искусственно созданным лицам, чем реальным людям. Это важно для понимания того, как искусственный интеллект может влиять на восприятие и доверие людей, особенно в контексте общения с виртуальными помощниками и другими цифровыми технологиями. 

Концепции, в рамках которых машины взаимодействуют с людьми, имитируя человеческое поведение, представляют опасность, поскольку сводят к нулю значимость таких ключевых аспектов личностного развития, как любовь, эмпатия, сострадание, привязанность, мотивация личным примером, наставничество, разнообразие точек зрений и мнений. Всё это невозможно формализовать ввиду необратимых последствий функционирования в дальнейшем человеческого сознания, что потребует модернизации многих процессов во взаимодействии в социуме, психоэмоционального и эмпатичного развития личности и т.д.

Из этого следует, что при разработке и внедрении технологий искусственного интеллекта необходимо учитывать гуманистическую составляющую и стремиться сохранить ту степень участия человека, которая способствует формированию надёжных эмоциональных связей, развитию когнитивных методов познания мира, осознанного и ответственного отношения к работе, автономности личности, передаче живого опыта, любознательности и творческого потенциала.

Колоссальное количество журналистов, внедряющих в свой инструментарий технологии искусственного интеллекта, подтверждают, что указанные технологии существенно экономят ресурсы специалистов медиасферы, освобождая время на аналитические задачи: у журналистов отпадает необходимость выходить на улицы, собирать информацию вручную. Отчасти данное обстоятельство может одновременно стать и негативным фактором, поскольку степень взаимодействия специалиста с людьми падает, в то время как специфика журналистики заключается в том числе и в базисной ценности человека. С одной стороны, журналистика стремиться к персонализации контента, анализируя интересы человека через его историю запросов, а с другой – запросы не всегда отражают реальные интересы, поскольку не исключен фактор «случайных» запросов, когда функция автоматического заполнения или автоматической коррекции прописывает не те запросы, а в истории поиска запрос зафиксируется и алгоритмы будут считать его, как реальный интерес и, соответственно, новостная повестка также будет формироваться на основе неточных запросов.

При этом Е.Ю. Коломийцева в некоторых работах отмечает, что использование в медиа-сфере искусственного интеллекта позволит журналисту повысить показатели результативности, которая будет расти от скорости создания контента, который также может отразиться на росте объема производимого контента: отпадает необходимость работы над рерайтом текстов, нет необходимости вручную делать расшифровки аудио-интервью, длительную аналитику и статистику информации. Более того искусственный интеллект способен выявить те значимые обстоятельства, которые были упущены журналистом ввиду банального человеческого фактора. 

Так современной журналистике, использующей технологии искусственного интеллекта, известен факт, когда роботизированная система путем аналитики предоставленных ей данных выявила, что одна из хоккейных юниорских команд впервые одержала победу после более сорока поражений. Очевидно, что такой факт станет более интригующей новостной повесткой, нежели обычная публикация о том, что где-то когда-то прошел хоккейный матч среди юниоров. Таким образом, искусственный интеллект проявил свою способность выявлять информацию, которая может стать якорем для внимания читателей и даже в исключительных случаях сенсацией.

Джим ВандеХей, генеральный директор «Axios», считает, что искусственный интеллект уже оказывает существенное влияние на медиа индустрию, и новостные порталы и компании должны адаптироваться под технологические веяния, чтобы выжить и быть конкурентоспособными. Компания «Axios» в настоящий момент активно работает над корректировкой своих стратегий, сосредоточившись на предоставлении журналистского опыта, надежного контента и человеческих связей. Несмотря на то, что генеральный директор компании утверждает, что такая деятельность не окупается, внедрение технологии искусственного интеллекта рано или поздно принесет свои плоды, как и любые действия, направленные на модернизацию процессов. 

Рассмотренные в рамках квалификационной работы примеры внедрения технологий искусственного интеллекта позволяют сделать вывод о том, что разработчиками, а также специалистами в сфере журналистики предпринимаются попытки учета вопросов этики при использовании инновационных программ. Искусственный интеллект используется новостными порталами с осторожностью, первоначально – на базовых и шаблонных алгоритмах, что свидетельствует об ограниченных масштабах процессов внедрения. Специалисты в сфере электронных медиа пока еще ищут возможности и пути направления развития технологий искусственного интеллекта, способные упростить работу журналистов, не оказывая существенного влияния на аспекты этики и безопасности.

Современными специалистами обсуждаются проблемы фильтрации контента, персонализации его через выстроенные алгоритмы, что ставит перед журналистами в сфере электронных медиа вопросы учета требований этики и безопасности при внедрении в работу технологий искусственного интеллекта. Поскольку на данном этапе уровень внедрения таких технологий в работу журналистов остается низким, необходимость разрешения вопросов этики и безопасности будет еще неоднократно возникать при каждом нововведении в деятельность.

Технологии искусственного интеллекта, как уже упоминалось ранее, внедряются на различных площадках, пригодных для распространения новостной информации. Лидерами внедрения технологий искусственного интеллекта в российской журналистике называют «Интерфакс», «РИА Новости», но даже указанными лидерами имеющиеся технологические возможности используются не в полном объеме, некоторые площадки, где допустимо и удобно внедрять технологии искусственного интеллекта, ими упускаются, в связи с чем особый интерес вызывает вопрос возможности и специфики внедрения искусственного интеллекта на одной из самых популярных в настоящий момент платформ, созданной Павлом Дуровым 11 лет назад, – на примере кроссплатформенного мессенджера «Телеграм».  

 

2.2. Специфика функционирования искусственного интеллекта на примере телеграм-каналов «Новости Москвы», «РИА Новости», перспективы развития

 

Искусственный интеллект становится все более востребованным в современном обществе. Его возможности и применение постоянно расширяются, что отражается на всех сферах жизни – от медицины и финансов до развлечений и общения. Одним из примеров успешного использования искусственного интеллекта является его функционирование в телеграм-каналах.

«Телеграм» – это популярный мессенджер, кроссплатформенная площадка, которая позволяет пользователям общаться, обмениваться информацией, создавать группы и каналы для распространения контента. Телеграм-каналы стали одним из основных способов коммуникации, информационного обмена и продвижения контента в сети. Благодаря возможностям искусственного интеллекта, владельцы телеграм-каналов могут улучшить качество своего контента, повысить вовлеченность аудитории и увеличить численность подписчиков.

Сама платформа «Телеграм» уже фактически является способом предоставления персонифицированного контента, поскольку пользователь самостоятельно определяет перечень каналов, которые смогут присылать ему новостные сводки. 

При этом интерфейс «Телеграм» предоставляет пользователям колоссальное количество функций: возможность прослушивания аудио- и видеосообщений, просмотра видеофайлов, чтения документов, просмотра прямых эфиров и трансляций, прослушивания музыки, что само по себе сближает формат работы площадки с теле – и радиоформатами, но в компактном размере.

Активность пользователей в социальных сетях фактически вынудило журналистов обеспечить свое присутствие на тех площадках, на которых больше всего проводит время их целевая аудитория. «Телеграм» обладает широким спектром возможностей использования ботов, обширная документация, близкий человеку интерфейс, количество пользователей, как недавно отметил в интервью Такеру Карлсону создатель площадки Павел Дуров, вероятно, к концу 2024 года приблизится к миллиарду. Все это делает «Телеграм» максимально привлекательной для своей работы журналистов и автоматизации процессов и обеспечивает пользователей возможностью на одной площадке выполнять несколько действий, что существенно экономит время, как самый ценный ресурс современного человека.

Современные тенденции журналистики свидетельствуют о том, что все больше новостных порталов начинают размещать свой контент именно на платформе «Телеграм», например, «Gigachat», «Kandinsky», «BotHub», «DevoidDiffusion», «Silero», «Edya», «TurboText», «Yourfriends.ai», «FaceSwap», «Bard AI».   

Главным свидетельством того, что платформа «Телеграм» стала полноценной альтернативой традиционным СМИ является то, что крупнейшие СМИ сами при подготовке своего материала активно ссылаются на ту информацию, которую они сами получили именно через телеграм-каналы. Телеграм-каналы СМИ уже стали преобразовываться в самостоятельные журналистские продукты. Очевидно и то обстоятельство, что издания, использующие в своей деятельности именно платформу «Телеграма», получают большее количество просмотров материалов, занимают лидирующие позиции по показателю цитируемости и пользуются успехом у «электронной» аудитории ввиду глобальной популяризации именно этой платформы. Несмотря на то, что среди населения Российской Федерации постоянно ведутся диалоги о возможной блокировке кроссплатформенной площадки, журналистам и изданиям не стоит опасаться проблем в данной части, пока в телеграм-каналах присутствуют представители власти, активно использующие данную площадку для формирования своего личного бренда.

Популярность и авторитет «Телеграма» на мировом рынке подтверждается и тем, что, по заявлению его создателя, Павла Дурова, на платформу оказывают давление американские корпорации «Apple» и «Google», которые обозначают для платформы угрозу удаления приложения с их маркет-плейсов в случае несоблюдения рекомендаций, например, о фильтрации контента. Крупные конкуренты «Телеграма» пытаются путем запугивания пользователей снизить популярность приложения, утверждая, что применяемые протоколы шифрования в недостаточной степени защищают персональные данные пользователей, в связи с чем последним стоит отказаться от использования приложения, тем самым в очередной раз подчеркивая ключевую роль кроссплатформенной площадки на мировом рынке.

Блокировка некоторых социальных сетей на территории Российской Федерации также способствовала популяризации платформы среди активных интернет-пользователей страны.

Однако несмотря на перечисленные выше преимущества данной платформы, единичные издательства и новостные порталы, базирующиеся в «Телеграм», используют функции искусственного интеллекта в своей работе. 

Журналистами отмечается, что выбор способа автоматизации процессов пал на «Телеграм» ввиду того, что большая часть коммуникаций в современном обществе ведется именно через мессенджеры. Именно в мессенджерах порой раньше всех публикуется актуальная информация о происшествиях, кризисах и необычных вещах. 

Феномен «Телеграм» заключается еще и в психологической привязанности индивидов к социальным сетям. Человек стал зависим от информации, от связи с окружающим миром, что привело к модернизации его жизненных процессов в части поведенческих привычек. Проверка социальных сетей, электронной почты стали первостепенными для любого человека, свидетельствуя о приоритете исключения вероятности возникновения в его укладе цифрового вакуума над базовыми потребностями, что должно быть учтено специалистами в сфере журналистики.

Чтобы быть читабельным, нужно предоставить социуму возможность оставаться во взаимодействии с внешним миром и предоставить ему возможность узнавать обо всех актуальных новостях в привычном для него формате – через социальные сети, поскольку вероятность того, что человек перейдет на сайт или какое-то стороннее приложение – минимальна. Такое действие занимает слишком много времени, поэтому специалистам в сфере журналистики приходится принимать тот факт, что нужно обеспечить внедрение контента таким образом, чтобы сократить количество действий человека для ознакомления с той или иной информацией. 

Преимущество, которым пользуются многие новостные порталы, переходя на платформу «Телеграм», является более высокий уровень защищенности персональных данных, о которых заявляет создатель. Павел Дуров утверждает, что площадка в достаточной мере обеспечивает сохранность персональных данных в «Телеграм» с помощью блокчейн-платформы «TelegramOpenNetwork» (TON). 

Сервис «TelegramPassport» позволяет пользователям безопасно хранить и загружать свои персональные данные ввиду особой системы шифровки данных. Информация шифруется с помощью пароля двухфакторной аутентификации и хранится на блокчейне, что обеспечивает её сохранность и приватность. Фактически, в настоящий момент «Телеграм» остается одной из немногих площадок, где обмен информацией происходит почти бесконтрольно, стихийно, что не может не быть дополнительным преимуществом для новостных порталов, поскольку возникает меньше сложностей с созданием и воспроизведением контента. Это может выступать как положительным фактором, так и негативной составляющей работы на данной площадке, однако автор полагает, что количество достоинств превалирует над сложностями. И на данном этапе возникает серьезная необходимость внедрения в систему хотя бы элементарного правового регулирования или контроля за соблюдением вопросов безопасности.

Стоит обратить внимание, что в настоящее время вопрос конфиденциальности приобрел иной характер. В начале 2018 года проверка фактов и даже раскрытие личностей создателей телеграм-каналов (в основном, на коммерческой основе) стали новым ключевым элементом глобального контента мессенджера.

Одной из специфичных особенностей функционирования искусственного интеллекта в телеграм-канале является его способность анализировать и понимать поведение пользователей. Алгоритмы искусственного интеллекта могут отслеживать предпочтения и интересы аудитории, анализировать их действия и предугадывать их поведение. На основе этих данных, искусственный интеллект может предлагать пользователям персонализированный контент, который будет наиболее интересен и предпочтителен для пользователя.

На данном этапе новостные телеграм-каналы должны обеспечить доверие пользователей и предотвратить возможные утечки и угрозы нарушения требований этики и безопасности. Перед новостными телеграм-каналами остро стоит вопрос осуществления борьбы с дезинформацией и хакерскими атаками с целью исключения возможности публикации контента, носящего ложный характер. Любой информационный «вброс», не соответствующий действительности, может затронуть общество, в том числе и в части вопросов государственной безопасности, когда важно сохранять эмоциональную стабильность населения. Внедрение серьезных технологий защиты от взлома и предоставления доступа к администрированию или программированию телеграм-канала является серьезной задачей всех новостных порталов, использующих платформу «Телеграм» и технологии искусственного интеллекта.

Кроме того, искусственный интеллект может помочь владельцам телеграм-каналов автоматизировать процессы управления и монетизации контента. Например, с помощью искусственного интеллекта можно оптимизировать расписание публикаций, анализировать статистику просмотров и взаимодействия с контентом, а также проводить таргетированную рекламу и монетизацию.

Еще одним примером функционирования искусственного интеллекта в телеграм-канале является его способность общаться с пользователями, предложить своим читателям интерактивные сервисы, такие как опросы, голосования и консультации экспертов. Пользователи могут оставлять различные реакции на публикации, что автоматически уже формирует статистику отношения к публикуемому материалу.

Если рассмотреть в качестве примера телеграм-канал «Новости Москвы», являющийся одним из самых популярных источников новостей о столице России, то следует отметить, что несмотря на свою популярность, канал не в полной мере использует возможности искусственного интеллекта для улучшения качества информации, которую предоставляет своим подписчикам. В настоящий момент его функционал включает в себя: 

предоставление информации о последних новостях города;

возможность задавать вопросы и получать ответы;

отправка сообщений и получение обратной связи от пользователей;

интеграция с другими сервисами и приложениями;

напоминание о важных событиях;

поиск мест (гостиниц, ресторанов, кинотеатров).

Основной функцией телеграм-каналов, в том числе и телеграм-канала «Новости Москвы», является возможность пользователей принимать непосредственное участие в создании контента для новостного портала. В то же время в отличие от телеграм-канала «Новости Москвы», к примеру, телеграм-канал «РИА Новости» даже не предоставляет пользователям возможность оставлять реакции-эмодзи на новостные сводки, комментировать публикации, предлагать контент для публикаций, что свидетельствует о том, что «РИА Новости» осознанно отключили инструменты взаимодействия с пользователями, сократив контакт с до минимальных объемов, тем самым, как полагает автор, утрачивая лояльность аудитории. Данный участник журналистского рынка нацелен на быстрое сообщение новостей в жанре заметки и не преследуют цели установления контакта с аудиторией.

Есть основания полагать, что такому крупному новостному порталу, как «РИА Новости», нет необходимости получать обратную связь от пользователей, поскольку его подача информации имеет более официальный характер, публикуются новостные сводки со ссылкой на официальные источники, такие как МЧС России, Минобороны России, мэрии городов, на авторитетные зарубежные новостные порталы и комментарии должностных лиц. Тем самым у пользователя, обладающего критическим мышлением, может возникнуть предположение о том, что фильтр, через который проходит вся информация «РИА Новости», осуществляет проверку такого уровня, что пользователь лишен возможности получить информацию, освещенную с противоположной точки зрения, отличной от государственной. Телеграм-канал «Новости Москвы» также публикует официальные новостные сводки, однако наполненность канала и публикуемый порталом контент носит менее официальный характер. Иногда авторами подаются новости развлекательного характера, что положительно сказывается на восприятии пользователями информации, сохраняя тем самым профиль эмоционально-стабильного читателя канала. 

Прямое взаимодействие редакции с аудиторией позволяет улучшить пользовательский опыт и повысить уровень обслуживания. В данном случае новостной портал исключает необходимость глубокой аналитики интересов пользователей, поскольку они сами формируют новостную повестку. Вовлекая пользователей в процесс генерации контента, новостной портал увеличивает лояльность своих читателей.

В то же самое время вовлечение пользователей в процесс создания контента предопределяет возникновение ряда задач, в частности, задачи сохранения баланса между возможностью участия в этом действии и исключению спама и массовой рассылки информации, не несущей в себе смысловой и содержательной нагрузки. Искусственный интеллект продолжает улучшать процесс управления контентом в телеграм-канале «Новости Москвы». 

Например, у бота, встроенного в телеграм-канал «Новости Москвы», помимо прочего предусмотрена и анти-спам система с 10-секундной задержкой, позволяющей отправить только один пост за раз, то есть если сначала отправить картинку, а затем текст к публикации, новостной портал получит только картинку, что снижает вероятность спамерских атак с рекламой и информацией, не несущей в себе смысловую нагрузку, отвечающей содержательной составляющей канала.

Преимуществом телеграм-каналов является и тот факт, что на платформе отсутствует встроенная реклама. Отсутствие встроенной рекламы в «Телеграм» позволяет пользователям получать больше контроля над своими данными и исключить столкновение с рекламными сообщениями в публичных каналах. 

Например, «Новости Москвы» за неделю выпустили всего четыре публикации рекламного характера, что в сравнении с минимум пятнадцатью публикациями в день в сумме является рекордно маленьким процентом. При этом отсутствие на площадке «монополистов» в своей сфере снижает уровень конкуренции за потребителя, в связи с чем представляется более упрощенным процесс продажи пользователю и подписчику телеграм-канала. 

Отдельно стоит отметить, что ограниченное количество рекламных публикаций также позитивно сказывается на лояльности аудитории: большинство пользователей негативно отзываются о повсеместной навязчивой рекламе, а в телеграм-канале они находят оплот безопасности, где нет рекомендаций и советов приобрести тот или иной продукт, товар, услугу. В случае чрезмерной рекламы, она встраивается в новостной контент, что может вызывать недоверие у аудитории. У людей может сложиться впечатление, что рекламный материал влияет на объективность и достоверность информации. И пока крупные компании еще не успели занять платформу «Телеграм», он все еще остается свободным от таргетированной и контекстной рекламы, хотя потенциально «Телеграм» является перспективной площадкой для монетизации, поскольку именно этой площадкой пользуется наиболее платежеспособная аудитория. Если судить по среднему профилю пользователя «Телеграм», это человек старше 25 лет, работающий в сферах IT, маркетинга, PR и производства – так называемая городская интеллигенция, креативная ячейка общества.

Умеренное количество рекламы адекватно воспринимается читателем, у него не возникает желания отписаться от канала и прекратить отслеживать новостные сводки. Условно, даже если бы это была одна рекламная публикация в день, то пользователями это воспринималось бы адекватно, нежели их бесконечное количество. Важно поддерживать баланс между рекламными материалами и самим контентом канала.

Представляется очевидным то обстоятельство, что крупные новостные порталы не могут полностью избежать необходимости внедрения публикации рекламного характера и рекламных интеграций, поскольку реклама в новостных телеграм-каналах может быть эффективным способом монетизации контента, но авторам приходится крайне внимательно подходить к выбору партнеров и контролировать качество и соответствие рекламы контенту канала. Предоставляя возможность размещения коммерческого материала, «Телеграм» позволяет сохранить традиции работы классических форм СМИ.

Функционал «Телеграм», несмотря на относительно молодой «возраст» данной платформы, уже отвечает вопросам многообразия: журналисты могут проводить прямые трансляции прямо со своих смартфонов (оптимизирован процесс тем фактором, что журналисту не нужно везти с собой видеооператора на место событий, как и массивную аппаратуру для съемок), при этом прямо в момент трансляции журналист может получать обратную связь от зрителей, отвечать на их вопросы в режиме реального времени, что также повышает лояльность аудитории, ее заинтересованность в публикуемом материале и ощущение себя как непосредственного участника освещаемых журналистом событий.

Кроме того, для работы с видеоматериалами журналисту не нужно иметь дополнительных приложений для их обработки: обрезать видеоматериал можно прямо на платформе. Помимо прочего «Телеграм» имеет удобную функцию проставления тайм-кодов: журналисту достаточно указать конкретный отрезок видеозаписи в формате _:__ (минута и секунда видеоматериала), чтобы сделать отсылку на конкретный момент в видеозаписи, на который представляется значимым обратить внимание зрителя.

Существенным преимуществом «Телеграм», в частности для новостных порталов, является и то обстоятельство, что аудитория платформы ежедневно растет, в связи с чем у редакций или авторов таких каналов есть возможность стать «кликабельными», обсуждаемыми, читаемыми, все это позволит занять на рынке лидирующие позиции. Внедрение в телеграм-каналы новостного характера чат-ботов с искусственным интеллектом обеспечит круглосуточное взаимодействие с читателями со всей страны (условно, пользователю, находящемуся во Владивостоке, не придется ждать, когда наступит рабочий день в редакции, базирующейся в Москве, чтобы получить ответ на имеющиеся у него вопросы), что также будет способствовать формированию «лояльной» аудитории.

Неочевидной, но также однозначно положительной функцией «Телеграм», является возможность «сокрытия» материала, так называемая функция «защиты от спойлеров». «Телеграм» позволяет сделать часть текста или фотографии, или видеозаписи видимыми только по клику собеседника, в случае же его бездействия материал останется невидимым, и человек может приступить к чтению следующей новости без рисков для себя и рисков нарушения установленных правил.

Функция скрытых сообщений позволит предупредить, например, несовершеннолетних пользователей телеграм-канала о том, что материал не предназначен для их просмотра, или предоставляет особо впечатлительным людям возможности осознанно отказаться от просмотра материала, который может неблагоприятно воздействовать на их психику.

Что касается полноценного анализа телеграм-каналов о новостях столицы, все же стоит отметить, что «Новости Москвы» не в полной мере использует возможности искусственного интеллекта. Вместо автоматизации рутинных процессов, сбор и анализ информации происходит вручную, что требует больше времени и усилий со стороны редакции. В целом, изучая имеющиеся в открытом доступе новостные каналы, в рамках исследования был сформирован вывод о том, что в настоящее время единичные телеграм-каналы используют в своей работе технологии искусственного интеллекта, используют ограничено, не затрагивая полный функционал, поэтому их деятельность нельзя охарактеризовать как творческую работу, использующую электронные когнитивные способности.

Также отсутствует персонализация контента, что может привести к тому, что подписчики телеграм-канала не всегда будут получать ту информацию, которая действительно интересна и актуальна для них. Автоматическая система рассылки позволила бы распределять контент по различным категориям и форматам, оптимизируя его распространение и привлекая новых пользователей. При этом лента выстраивается хронологически: кто позже написал сообщение, тот и оказался первым во внимании пользователя. Указанное обуславливает наличие повышенного уровня конкуренции среди новостных порталов: либо им придется «спамить» новостными сводками, либо внимание пользователя не будет сфокусировано на них, и ни один из этих способов не будет позитивно отражаться на фиксации внимания пользователя. В первом случае, количество сообщений сможет стать для него критически чрезмерным, и он отпишется от канала, либо просто не успеет долистать до нужной новости, и новостной портал не останется в его фокусе внимания, что дает автору основание полагать, что владельцам телеграм-каналов придется выбирать иные способы борьбы за внимание пользователя, который больше будет ориентирован на его ценности, и у пользователя будет формироваться и сохраняться желание самостоятельно заходить на канал и проверять, не было ли там обновлений за то время, пока он находился не в сети.

С целью сохранения лояльности аудитории электронным медиа придется детально изучить запросы потребителя, его реакции на те или иные функции, встраиваемые в телеграм-каналы для модернизации работы и функционирования новостного портала. Некоторые нововведения могут вызывать, напротив, негативные реакции со стороны потенциального подписчика телеграм-канала, что может повлечь отток читателей и отрицательно отразиться на приросте новой аудитории, в которой заинтересованы любые электронные медиа. Любое действие, которое влечет за собой любое изменение в привычном укладе жизнедеятельности пользователя, должно быть тщательно протестировано, поскольку журналистика служит удовлетворению их потребностей, а не изолированно от их повседневных нужд.

Однако «Телеграм» имеет и ряд недоработок, которые пока что еще не были разрешены создателями. В настоящий момент, несмотря на то, что у пользователя имеется возможность сортировать свои подписки по папкам (различные окна, которые позволят пользователю сгруппировать значимые для него телеграм-каналы по различным характеристикам), все еще существует риск смешения личных чатов и важных новостных сообщений из телеграм-каналов, а отсутствие на платформы механизмов умной ленты не позволит беспрепятственно донести до пользователя значимую информацию, что опять же отразится и на читабельности канала. 

Помимо прочего, на сегодняшний день нет оснований утверждать, что искусственный интеллект уже внедрен в работу кроссплатформенной площадки: этот процесс был запущен в работу сравнительно недавно. Однако решение данного вопроса последует в ближайшее время ввиду популярности площадки. Разработчики и сами журналисты всегда в силу человеческой природы и запросов целевой аудитории будут стремиться к модернизации и оптимизации процессов, в связи с чем автор позволит себе сделать вывод о том, что работа журналистов на платформе «Телеграм» еще будет неоднократно видоизменяться. 

Методы и форматы работы платформы близки современному пользователю, поэтому в скором времени встанет вопрос о выделении «телеграм-журналистики» как самостоятельного ответвления в рамках всей журналистики, потребуются механизмы ее регулирования, а также разработка и совершенствование возможности данной площадки с целью ее соответствия запросам как специалистов, так и обычных пользователей.

Таким образом, искусственный интеллект играет значительную роль в современном информационном пространстве, в том числе и на платформе «Телеграм». Его специфика функционирования включает в себя анализ поведения пользователей, автоматизацию управления контентом и взаимодействие с аудиторией. Благодаря этим возможностям, владельцы телеграм-каналов могут улучшить качество своего контента, повысить лояльность аудитории, эффективность монетизации. 

В настоящий момент ведутся активные дискуссии по поводу того, что телеграм-журналистов необходимо юридически приравнять к СМИ, и наложить на них те же права и обязательства ввиду того, что статистика показывает высокую степень доверия пользователей к новостям, публикуемым на данной кроссплатформенной площадке, что способствовало бы более четкому регулированию их деятельности и исключило бы формирование анонимного поля, которое может нести в себе риски нарушения действующего законодательства.

Исходя из проанализированного материала, есть основания полагать, что журналисты используют технологии искусственного интеллекта довольно ограниченно, поскольку опасаются нарушения вопросов этики и безопасности. На данном этапе представляется довольно затруднительным алгоритмизировать процессы, которые были созданы относительно недавно, платформа «Телеграм» все еще разрабатывается, наполняется функциональными возможностями, в связи с чем, полагаем, журналистам еще предстоит столкнуться с необходимостью детальной проработки внедрения технологий искусственного интеллекта в свои телеграм-каналы. Указанное предопределяет необходимость обозначить перспективы развития искусственного интеллекта в современных медиа, что позволит предположить, какие вопросы могут возникнуть на пути развития информационных технологий в рамках «телеграм-журналистики».

Настоящее время можно охарактеризовать как новую эпоху высокоинтеллектуальных СМИ. Современного журналиста сложно представить без наличия в арсенале цифровых средств фиксации, создания и обработки информации, а также программ, которые составляют его инструментарий как продвинутого пользователя технологий искусственного интеллекта. 

Тенденция развития искусственного интеллекта позволяет нам утверждать, что современный мир, и электронные медиа в том числе, еще находятся в начальном состоянии внедрения технологий искусственного интеллекта, а специалистов в сфере журналистики в ближайшие десятилетия ждут полномасштабные изменения в деятельности и организации рабочего процесса.

Увеличение количество контента позволит наполнить рынок и повысить уровень дохода электронных медиа, сохраняя при этом человеческую составляющую, поскольку исключить из системы оператора данных технологий на сегодняшний день не представляется возможным. 

Сейчас основной вектор работы электронных медиа должен быть взять на персонализацию публикуемого контента. Тенденции развития современного общества сводятся к признанию и принятию уникальности каждого человека, уважению его личных границ, учета его интересов и мнений, в связи с чем современная журналистика в рамках цифрового пространства должна отвечать этим запросам.

Исследователи предполагают, что именно создание персонализированных новостных лент станет наиболее значимой сферой разработки технологий искусственного интеллекта ввиду гиперболизированного акцента внимания на ментальное состояние пользователя.

Одним из вызывающих настороженность факторов внедрения искусственного интеллекта в деятельность журналистики, которая характеризуется высокой степенью взаимодействия с социумом, является именно воздействие на психоэмоциональную составляющую людей. Алексей Венедиктов* (признан в России иноагентом) на своей лекции в МГИМО в 2018 г. справедливо отмечал то обстоятельство, что технологии искусственного интеллекта еще не вызывают безграничного доверия пользователей и не могут быть применены повсеместно, хотя такое развитие событий неизбежно, и как позволит себе заметить автор, перед обществом стоит острая необходимость аккумуляции сил всех специалистов, чтобы быть уверенными в безопасности внедрения этих технологий в обыденную жизнь каждого человека. 

Технологии искусственного интеллекта в обозримом будущем не будут способны вытеснить человеческую личность как уникальную единицу, способную к творчеству, креативу и критическому мышлению, поскольку современные разработки пока не создали механизм, воспроизводящий когнитивные функции человека. Технологии искусственного интеллекта, разумеется, займут свое место в инструментарии каждого современного журналиста, в связи с чем в данной сфере можно будет наблюдать синергию в работе человека и искусственного интеллекта.

Единственным риском, который может в ближайшее время реализоваться, выступает опасность исчезновения локальных СМИ, поскольку у таких организаций отсутствует достаточное количество бюджетных средств и иных ресурсов, способствующих покрытие внедрения дорогостоящих в настоящий момент технологий искусственного интеллекта, а крупные СМИ в силу оптимизации процессов и успешной практики внедрения инновационных технологий смогут забрать себе поле деятельности локальных СМИ, поскольку у них будет достаточно ресурсов для охвата большего потока информации, что способно привести к сокращению числа СМИ. 

Указанное приводит к рассуждениям о том, что обществу надлежит выработать единые правила работы технологий искусственного интеллекта, хотя бы в сфере журналистики, которые учитывали бы как этическую, и психологическую составляющую, так и в обозримом будущем кодификацию юридических правил работы с технологиями искусственного интеллекта.

Заключение

 

Основываясь на проведенном исследовании, можно сделать вывод о том, что искусственный интеллект в сфере журналистики является технологией, способствующей автоматизации рутинных процессов, которые функционируют только при помощи человека. Такие технологии используются с целью модернизации и качественного улучшения деятельности журналистов. Технологии искусственного интеллекта не являются новшеством для современного мира, его идеи зародились задолго до масштабного научного прогресса, который продолжается и по сей день.

В настоящее время имеются основания утверждать, что в стране отсутствуют полноценные комплексные фундаментальные исследования в области технологий искусственного интеллекта с изучением междисциплинарных связей, которые в последующем формируют полноценную научную школу. Безусловно, с учетом того, что зарубежные ученые уже подготовили и продолжают проводить ряд масштабных исследований по проблемам искусственного интеллекта, существует острая необходимость проведения таких работ и в Российской Федерации.

В рамках магистерской диссертации были рассмотрены вопросы о том, каким образом современные медиа внедряют в свою работу технологии искусственного интеллекта, какие возникают преграды и сложности при внедрении и функционировании искусственного интеллекта при работе с новостными материалами и т.д.

Процент внедрения искусственного интеллекта в работу журналистов на сегодняшний день остается довольно низким, несмотря на потенциально неограниченные возможности его использования.

Для того, чтобы искусственный интеллект был результативным, его разработчикам и пользователям (в частности, новостным порталам, журналистам) придется неоднократно тестировать все его функции, проверять, какие из них оказывают большее подспорье в деятельности. Автоматизация процессов при помощи искусственного интеллекта является прорывом в журналистике. Используя эти инновационные технологии, новостные компании могут сохранять лидерство на рынке, являясь наиболее просматриваемыми, читабельными, кликабельными, прослушиваемыми, а также увеличивать уровень дохода от журналистской деятельности. 

Перспективным направлением развития журналистской деятельности становится кроссплатформенная площадка «Телеграм», которая обладает рядом преимуществ на фоне уже традиционных и обычных электронных медиа. Предпочтение целевой аудитории использовать именно эту площадку вынуждает специалистов в сфере журналистики отвечать на запрос социума и использовать в своей работе привычные для читателя платформы. 

Возможности внедрения искусственного интеллекта на платформе «Телеграм» пока еще ограничены, но даже сейчас позволяет неким образом автоматизировать некоторые процессы, на которые обычно у журналиста уходит больше времени, тем самым сняв часть нагрузки со специалиста и предоставив ему возможность заниматься непосредственно творческой деятельностью.

Разработки для разрешения проблем внедрения информационных технологий в современные электронные медиа носят скорее вспомогательный характер, нежели фундаментальный. Весь необходимый инструментарий для внедрения журналистами в свою деятельность тех или иных технологий искусственного интеллекта у специалистов имеется, им необходимо только проанализировать запросы, с которыми они обращаются непосредственно к современным технологиям, и функционал этих технологий, и как он может повлиять на совершенствование их деятельности. Разумеется, креативную работу довольно сложно формализовать, однако данное обстоятельство не является негативным фактором: сохраняя необходимость участия человека в реализации технологий искусственного интеллекта, мы сохраняем гуманистическую направленность всей журналистской деятельности, которая глобально существует именно для людей, а не для машин. Умная журналистика уже во многом обходит человека по функциональным показателям, но журналисты продолжат вести свою деятельность, а человеческий потенциал невозможно будет отдать целиком на откуп автоматизации, до тех пор, пока технологии искусственного интеллекта не будут наделены эмоциональным интеллектом, когнитивными способностями, включая, но не ограничиваясь, творчество и креатив.

 

Список литературы

 

Азимов А. Я робот. – М.: Эксмо, 2019. – 763 с.

Акопова А.Л. Проблемы использования искусственного интеллекта в медиаресурсах // Журналистика в 2023 году: творчество, профессия, индустрия. – М.: МГУ, 2024. – С. 370-371.

Амелин Р.В., Чаннов С.Е. Эволюция права под воздействием цифровых технологий. – Москва: Норма, 2023. – 280 с. 

Аристотель. Собрание сочинений в 4-х томах. Том 1. – М.: Мысль, 1976. – 550 с.

Барр Р., Файгенбаум Э. От метафоры к науке: искусственному интеллекту требуется новая метафора // Proceedings of the Ninth Annual Meeting of the Cognitive Science Society. – Heuristech Press, 1981. – Р. 12-35.

Белокопытова Ю.И. Telegram в ряду современных интернет-коммуникаций // Медиареальность XXI века: эпоха глобальных реформ. – М.: МПГУ, 2021. – 321 с.

Близнец И.А. Авторское право в цифровой среде. Новые вызовы // Роль интеллектуальной собственности в прорывном научно-технологическом развитии общества: тезисы докладов участников ХХIII Международной конференции интеллект Роспатента, Москва, 16-17 октября 2019. – М.: Издательство Роспатента, 2019. – C. 35-38.

Боровская Е.В. Основы искусственного интеллекта. – М.: Лаборатория знаний, 2020. – 130 с.

Бражникова З.В., Мишаткина Т.В., и др. Этика. Пособие для студентов высших учебных заведений. – БНТУ, Минск, 2006. – 239 с.

Будрецов Е.С. История развития искусственного интеллекта как особой программной системы // Вызовы современности и стратегии развития общества в условиях новой реальности. – М: Алеф, 2023. – С. 223-250. 

Будылин С.Л. Дело о цифровом золоте. Почему власти США запретили криптовалюту Павла Дурова // Вестник экономического правосудия Российской Федерации. – 2020. – № 8. – С. 121-124.

Вевюрко В.А., Телепченкова И.А. Анализ социальной сети telegram как средства массовой информации и коммуникации // Материалы Афанасьевских чтений. – 2020. – № 2 (31). – С. 46-51.

Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. – Москва: Радио и связь, 1982. – 95 с.

Верещагин С.Г. История трансформации роботов: от первых механических устройств до боевых роботов с искусственным интеллектом. Правовое регулирование их применения в вооруженных конфликтах // Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. – 2020. – № 4. – С. 68-78.

Вялых В.А. Проблемы использования искусственного интеллекта в системах электронного документооборота // Делопроизводство. – 2023. – № 1. – С. 42-46.

Дорохин В.Н. Феномен политических telegram-каналов как инновационных цифровых СМИ в России // Вестник ВГУ. Серия: Филология, журналистика. – 2019. – № 1. – С. 103-105.

Ефимова С.А. Развитие искусственного интеллекта // Цифровая наука. – 2020. – № 6. – С. 49-58.

Иванов А.А. Искусственный интеллект в действии: анализ сфер применения и возможностей // Мир науки и технологий. – 2020. – № 1. –      С. 1-10.

Иванов А.А. Цифровая этика и право // Закон. – 2021. –  № 4. –   С. 67-73.

Казанцев Т.Н. Искусственный интеллект и Машинное обучение. Основы программирования на Python. – М: ЛитРес: Самиздат, 2020. – 123 с.

Коломийцева Е.Ю. Актуальные тренды развития новых медиа // Вестник Волжского университета им. В.Н. Татищева. – 2019. – № 1 (4). –     С. 121-128.

Коломийцева Е.Ю. Трансформация новых медиа в период пандемии // Медиа-2022: теория и практика: к 150-летию МПГУ. – Москва: МПГУ, 2022. – С. 220-225.

Конвергенция частноправового регулирования общественных отношений сквозь призму эффективности права: монография / К.А. Абдуллаев, А.В. Абрамова, Э.А. Абызова и др. – М.: Юстицинформ, 2023. – 672 с.

Кропоткин П.А. Взаимная помощь как фактор эволюции. – СПб: Издательский дом «Самообразование», 2007. – 360 с.

Лазутова Н.М. Этические аспекты использования нейросетей в массмедия. // Журналистика в 2023 году: творчество, профессия, индустрия. – М.: МГУ, 2024. – С. 512-513.

Ларан А.А. Теоретико-правовые подходы к пониманию искусственного интеллекта: понятие, виды и существенные признаки искусственного интеллекта // Студенческий. – 2021. – № 36-3 (164). – С. 50-55.

Лукина М.М., Искусственный интеллект в российских медиа и журналистике: к дискуссии об этической кодификации // Вопросы теории и практики журналистики. – 2022. – № 4. – С. 680-694. 

Марголин И.Д. Основные этапы развития искусственного интеллекта // Молодой ученый. – 2018. – № 20 (206). – С. 23-26.

Морозова А.А., Арсентьева А.Д. Проблемы и перспективы использования искусственного интеллекта в сфере массмедиа: мнение российской аудитории // Знак: проблемное поле медиаобразования. – 2022. – № 2 (44). – С. 150–158.

Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: автореф. дисс. … д. юр. н. – Москва, 2018. – 45 с.

Назиров Р.Г. Родословная робота, или История о соперничестве фантазии с техникой // Назировский архив. – 2017. – № 2(16). – C. 72-76.

Нарский И.С. Готфрид Лейбниц. – Москва: Мысль, 1972. – 239 с. 

Носова Л.С. Искусственный интеллект в формировании профессиональных компетенций будущих педагогов. – Челябинск: Изд-во ЗАО «Библиотека А. Миллера», 2023. – 175 с. 

Ожегов С.И., Шведова Н.Ю., Толковый словарь русского языка. М.: Азъ. – 1992. – 940 с.

Осипов Г.С. Искусственный интеллект: состояние исследований и взгляд в будущее // Новости искусственного интеллекта. – 2001. – № 1. –   С. 3-13.

Подузова Е.Б. Наследование исключительных прав на «искусственный интеллект» и технологии «искусственного интеллекта»: проблемы теории и практики // Наследственное право. – 2023. – № 2. – С. 28-31.

Понкин И.В., Редькина А.И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. Серия: Юридические науки. – 2018. – Т. 22. № 1. – С. 93-97.

Прозоров А., Евстигнеев С., Соломатин Е. Искусственный интеллект: от теории к практике // Наука и жизнь. – 2021. – № 1 – С. 30-37.

Пройдаков Э.М. Современное состояние искусственного интеллекта // Науковедческие исследования. – 2018. – № 2018. – С. 129-153.

Ручкина Г.Ф. Искусственный интеллект, роботы и объекты робототехники: к вопросу о теории правового регулирования в Российской Федерации // Банковское право. – 2020. – № 1. – С. 7-18.

Самойлов И.Н. Правовые и этические вопросы развития искусственного интеллекта // ИС. Авторское право и смежные права. – 2022. – № 12. – С. 42-48.

Степанян А.Ж. Правовое регулирование роботов и искусственного интеллекта в странах Латинской Америки, проблема прав человека и искусственного интеллекта // LexRussica (Русский закон). – 2020. – Т. 73, № 7 (164). – С. 127-136. 

Топчий И.В. Соцсети и СМИ: взаимодействие в эпоху «эстетического поворот» // Медиасреда. – 2018. – № 1. – С. 217-221.

Умнова-Конюхова И.А. Право быть человеком –фундаментальное право и конституционный нарратив в системе личных прав и свобод в парадигме гуманизма // Конституционное и муниципальное право. – 2021. – № 11. – С. 41-46.

Фрагменты ранних греческих философов. Ч. 1. От эпических теокосмогоний до возникновения атомистики. –  М.: АСТ, 1989. –  С. 241.Фрейд З. Жуткое. – М.: Фирма СТД, 2006. – 261с.

Черногор Н.Н. Искусственный интеллект и его роль в трансформации современного правопорядка // Журнал российского права. – 2022. – № 4. – С. 5-15.

Шляпников В.В. Некоторые проблемы этики данных и этики социальных сетей // Вестник Санкт-Петербургского университета. Философия и конфликтология. – 2023. – № 3. – С. 504-513. 

Arens W.F. Contemporary advertising. – Boston: McGraw Hill Irwin, 2006. – 614 p.

Buch Amanda M., Eagleman David M., Grosenick Logan. Engineering Diplomacy: How AI and Human Augmentation Could Remake the Art of Foreign Relations //  Science and Diplomacy. – 2022. – № 3. – Р. 32-38.

Russell S., Norvig P. Artificial Intelligence: A Modern Approach. – Boston: Prentice Hall, 2010. – 1132 p. 

Searle J.R. Is the Brain's Mind a Computer Program? // Scientific American. – 1990. – Vol. 262. – №. 1. – Р. 54-59.

Solaiman S.M. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy // Artificial Intelligence and Law. – 2017. –Vol. 25. – № 2. – Р. 162-170.

 

Электронные ресурсы

 

Антонов Е. «Древнегреческий» компьютер оказался древнее, чем считалось // Nkj.ru [Электронный ресурс] – URL: https:www.nkj.ru/news/25371 (дата обращения 08.04.2024).

Искусственный интеллект в медиа и коммуникациях. Практики российского медиабизнеса // Ict.moscow [Электронный ресурс] – URL: https://ict.moscow/research/iskusstvennyi-intellekt-v-media-i-kommunikatsiiakh-praktiki-rossiiskogo-mediabiznesa. (дата обращения: 13.04.2024).

Кодекс этики в сфере искусственного интеллекта // Сdn.tass.ru [Электронный ресурс] – URL: https://cdn.tass.ru/data/files/ru/kodeks-etiki-ii.pdf (дата обращения 08.04.2024).

Кудрявцев Н. Человекоподобный робот получил гражданство Саудовской Аравии. // Рopmech.ru [Электронный ресурс]. – URL: https://www.popmech.ru/technologies/news-393732-chelovekopodobnyy-robot-poluchil-grazhdanstvo-saudovskoy-aravii (дата обращения: 13.04.2024).

Национальный стандарт Российской Федерации «Системы искусственного интеллекта. Классификация систем искусственного интеллекта» (утв. и введен в действие Приказом Росстандарта от 23.12.2020 № 1372-ст) // Docs.cntd.ru [Электронный ресурс] – URL: https://docs.cntd.ru/document/1200177292 (дата обращения: 17.04.2024).

Овечкин О. Reuters создал сервис для поиска и проверки новостей на фейк в Twitter // Rb.ru [Электронный ресурс] – URL: https://www.rb.ru/news/feikam-net (дата обращения: 13.04.2024).

Указ Президента РФ от 10.10.2019 № 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // Consultant.ru [Электронный ресурс] – URL: https://consultant.ru/document/cons_doc_LAW_335184/ (дата обращения: 17.04.2024).

Шмидт Т. Умная журналистика: искусственный интеллект в редакции // Тu.ejo.ch [Электронный ресурс] – URL: https://www.tu.ejo.ch/novie-media/umnaya-zhurnalistika (дата обращения: 13.04.2024).

Этика и «цифра»: этические проблемы цифровых технологий // Еthics.cdto.center [Электронный ресурс] – URL: https://ethics.cdto.center (дата обращения: 10.02.2024).

 

Приложение 1

 

Интервью с Алексеем Папченей, создателем виртуальной ведущей прогноза погоды Снежаной Тумановой

 

— Как пришла идея создания ведущей прогноза погоды с помощью нейросетей? 

— Эта идея пришла (так как я директор) – для оптимизации производства. Мне было интересно, это начиналось как эксперимент. Возможно ли с помощью современных технологий создать полноценную программу? Опять же, телевидение же не изобретает, оно пользуется тем, что уже придумано другими людьми, и внедряет это в производство. 

Так вот, возможно ли создать с помощью технологий создать программу? Даже не берём сложную какую-то, а простую – условно прогноз погоды. Можно ли сейчас создать простую телепрограмму с помощью нейросетей? И если текст прекрасно писал «чат-gpt», картинки рисует Midjourney, а генерация человеческого изображения –  это было проблематично. Все, что было на рынке, было не очень хорошо. Всегда в губы не очень детализировано попадала речь, это были такие все-таки нарисованные «жабы». 

И в конце концов мы нашли нейросетку, которую делают ребята молодые из Америки, и у них Снежана – это один из шаблонов. Мы посмотрели, прекрасно говорит на русском, прекрасно попадает в мимику, прекрасно попадает в речь. Соединили все это вместе и получился такой продукт. Именно образ Снежаны – это какая-то модель, не сильно заметная местная, то есть не искусственно сгенерированная внешность, но мы первые стали ставить в телепроизводстве ее. И вот получился такой продукт.

Изначально в новости нельзя было ставить, потому что по большому счету эмпатии как таковой не сильно много у человека к искусственно созданной ведущей, хотя смотрится она довольно мило. Это был эксперимент с точки зрения упрощения производства.

— Какие нейросети использовали? Насколько сложным оказался этот процесс? 

— «Чат-gpt», Midjourney, Stable Diffusion.

— Снежана Туманова – полностью продукт искусственного интеллекта или все же что-то делает человек? 

— Есть один редактор. Снежана Туманова состоит из трёх нейросеток, которые обслуживает редактор: собирает это все вместе, заливает информацию в нейросеть, по которой уже пишется текст, отправляет запрос на генерацию фото и видео. И нейросеть уже по этим запросам выполняет задачи. И все это делает один человек и нейросеть. Не нужна съемочная группа, не нужна студия, не нужно ничего. И это уже доведено до автоматизма и в течение получаса редактор выпускает готовый продукт. То есть с точки зрения опять же производства – это экономия колоссальная. А так ничего сама она (нейросеть) не пишет, все это делается человеком, а человек управляет нейросетями. 

— Говорят, что Снежану сделали максимально приближённой к человеку и она даже умеет шутить – для чего это было сделано? 

— Есть у неё свои поклонники, но учитывая мышление человека, у нас в Ставрополе говорят, что до того, как робот начал вести погоду, погода была лучше. Поэтому зрителю пока по эмпатии ближе живой человек, опять же такому закоренелому зрителю, возрастному. 

— Как часто выходит в эфир Снежана? Сейчас до сих пор она есть в вашей сетке вещания? 

— Выходит ежедневно в эфир с прогнозом погоды и раз в неделю с расширенным про цветение, бури, уже больше как своя программа. 

— Снежана стала дополнением к вашей команде или смогла кого-то заменить? Не боитесь ли вы, что в будущем нейросети смогут отобрать у нас рабочие места? 

— Снежана – это хорошее дополнение, никого она не заменила. Погоду ведёт другой человек, это как раз и есть редактор Снежаны. 

Нейросети – это, прежде всего, очень хороший помощник, там нет личности, ему нужно четко поставить задачу. Потому что нейросеть не знает, что такое хорошо, что такое плохо. Она будет работать по четко поставленным задачам. То есть если дать ей запрос «напиши хороший текс», она тебе ничего не напишет, потому что она не понимает, что такое хорошо, а что плохо. Но замена низко квалифицированного труда в журналистской деятельности по поиску по подготовке идей, фотографий, то да скоро, эти профессии отомрут. Это будет делать нейросеть. Переписчицы (копирайтеры) не нужны. Это все делает нейросеть.

А то, что требует творческой деятельности – это пока просто облегчает труд, потому что человеческую идею ничто не заменит. В дальнейшем – может быть. Как говорит Илон Макс, есть 25% вероятности, что нейросеть – путь к апокалипсису, а 75% – что нет. Мы живем в этой парадигме. 

— А зачем Вы ей создали странички в социальных сетях? Не пугает такая «очеловеченность»?

— Не пугает. Люди пишут. У неё есть даже поклонники. Многие до сих пор не верят, что это нейросеть. Ее приглашают на свидания, присылают цветы. Но это тоже такая игра.

— Используете ли вы нейросети для других целей на канале? Упрощает ли он вообще работу? Или может помогает как-то? 

— Помогает. Мы с помощью нейросетей чистим звук, генерируем видео, делаем картинки. Это очень облегчает работу и у меня сотрудники могут чем-то более серьезным в это время заняться. Рутину нейросети очень хорошо снимают. 

— Есть в планах ещё что-то сделать с помощью нейросети? Напарника Снежане, например?

— Есть ведущий новостей – Роман Цифровой, это копия директора (прим.автора–самого Алексея). И тут уже даже есть продвижения в плане человечности, у него больше эмпатии, голос больше похож на человеческий. Но опять же серьезные новости про то, что должно зацепить человека за душу, мы им не даём. Это только какие-то экспресс-разборы они могут делать.



Добавить комментарий