Противодействие угрозам искусственного интеллекта: борьба с дезинформацией

Дата: 2023-10-18 Автор: Dima Zakharov Категории: ТЕХНОЛОГИИ
news-banner
Искусственный интеллект стал неотъемлемой частью нашей жизни и оказывает влияние на различные аспекты общества. Однако его огромный потенциал также несет значительные риски, одним из самых актуальных из которых является распространение дезинформации и пропаганды, облегчаемое этой технологией.

Говоря о рисках, связанных с ИИ, эксперты подчеркивают, что дезинформация и широкое распространение пропаганды являются основными угрозами, которые ИИ потенциально может усугубить. С развитием технологии ИИ наше общество сталкивается с предположением лжи относительно информации, с которой мы сталкиваемся.

По словам экспертов, такие вещи, как недостаточная критическая оценка информации, могут привести к доверию к медийным источникам без должной проверки. Аналитические данные показывают, что люди потребляют большое количество информации в сети, на различных публичных форумах и в социальных сетях. Учитывая, насколько легко создавать реалистичные веб-сайты и их имитации, массовое распространение дезинформации в сети - это реальная и растущая проблема. В такой среде предположение лжи может стать более распространенным.

Для борьбы с этой проблемой эксперты работают над разработкой виртуальных помощников, способных быстро предоставлять информацию о достоверности содержания. Эти виртуальные помощники опираются на искусственный интеллект и ожидаются играть важную роль в обеспечении точности информации в ближайшем будущем.

Д-р Петрова также поделилась информацией о том, что Украина активно участвует в пилотном проекте по регулированию ИИ, разрабатываемом Советом Европы. Эта методология направлена на определение влияния систем ИИ на права человека, верховенство права и демократию, а также на возможные нарушения прав. Обсуждения по регулированию проводятся в соответствии с указаниями, изложенными в дорожной карте по AI Act ЕС. Кроме того, рассматриваются отраслевые рекомендации.

image

Оставьте свой комментарий