17 апреля, 19:10

Россиян будут информировать о взаимодействии с искусственным интеллектом в контакт-центрах

БанкБлог
БанкБлог
Россиян будут информировать об общении с роботом, а не с живыми сотрудниками контакт-центров компаний и банков. Это предусматривает законопроект о регулировании искусственного интеллекта. Бизнес злоупотребляет применением ИИ — граждане, не осознающие, что общаются с роботом, не могут оперативно решить свои проблемы и становятся жертвами мошенников, отмечают эксперты. Взаимодействие с искусственным разумом без понимания, что робот технически не может ответить на все вопросы, может привести к непоправимым последствиям, добавляют они.
Россиян будут предупреждать о разговорах с роботами в контакт-центрах  Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью искусственного интеллекта  ИИ  — если такие технологии применяются в их контакт-центрах.
InfoOrel.ru Твой Город в интернете. Новости Орла и области
InfoOrel.ru Твой Город в интернете. Новости Орла и области
Россиян будут предупреждать о разговорах с роботами в контакт-центрах Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью искусственного интеллекта ИИ — если такие технологии применяются в их контакт-центрах.
The Washington Post: Россия засевает чат-боты ложью. Любой злоумышленник может использовать ИИ таким же образом. Часть 1/3   Россия автоматизирует распространение ложной информации, чтобы обмануть чат-боты на основе ИИ по ключевым темам, и предлагая другим недобросовестным игрокам учебник на тему, как играть с искусственным интеллектом, чтобы продвигать контент, предназначенный для разжигания, влияния и запутывания, а не информирования.   Эксперты предупреждают, что проблема усугубляется по мере того, как все больше людей полагаются на чат-ботов, спешащих выйти на рынок, соцсети сокращают модерацию, а администрация Трампа распускает правительственные команды по борьбе с дезинформацией.   Ранее в этом году, когда исследователи спросили 10 ведущих чат-ботов о темах, на которые направлены ложные российские сообщения, например, о том, что Соединенные Штаты создают биооружие на Украине, треть ответов повторили эту ложь.   Пропагандистские успехи Москвы подчеркивают фундаментальную слабость индустрии ИИ — ответы чат-ботов зависят от поступающих к ним данных.   Руководящий принцип заключается в том, что чем больше чат-боты читают, тем более обоснованными будут их ответы, поэтому индустрия жаждет контента. Но огромное количество хорошо подобранного мусора может исказить ответы по конкретным темам. Для России это конфликт на Украине, для политика это может быть оппонент, а для коммерческой фирмы — конкурент.   «Большинство чат-ботов борется с дезинформацией… Они имеют базовые средства защиты от вредоносного контента, но не могут надежно распознать изощренную пропаганду, [и] проблема усугубляется системами с расширенным поиском, которые отдают приоритет свежей информации», — говорит Джада Пистилли, главный специалист по этике в платформе ИИ с открытым исходным кодом Hugging Face.   Ранние коммерческие попытки манипулировать результатами чатов также набирают обороты. Некоторые из тех же цифровых маркетологов, которые когда-то предлагали поисковую оптимизацию — или SEO — для повышения рейтинга в Google, теперь пытаются поднять упоминаемость с помощью чат-ботов ИИ с помощью «генеративной оптимизации» — или GEO. #технологии #Россия   Подписаться   Сайт
BRIEFLY
BRIEFLY
The Washington Post: Россия засевает чат-боты ложью. Любой злоумышленник может использовать ИИ таким же образом. Часть 1/3 Россия автоматизирует распространение ложной информации, чтобы обмануть чат-боты на основе ИИ по ключевым темам, и предлагая другим недобросовестным игрокам учебник на тему, как играть с искусственным интеллектом, чтобы продвигать контент, предназначенный для разжигания, влияния и запутывания, а не информирования. Эксперты предупреждают, что проблема усугубляется по мере того, как все больше людей полагаются на чат-ботов, спешащих выйти на рынок, соцсети сокращают модерацию, а администрация Трампа распускает правительственные команды по борьбе с дезинформацией. Ранее в этом году, когда исследователи спросили 10 ведущих чат-ботов о темах, на которые направлены ложные российские сообщения, например, о том, что Соединенные Штаты создают биооружие на Украине, треть ответов повторили эту ложь. Пропагандистские успехи Москвы подчеркивают фундаментальную слабость индустрии ИИ — ответы чат-ботов зависят от поступающих к ним данных. Руководящий принцип заключается в том, что чем больше чат-боты читают, тем более обоснованными будут их ответы, поэтому индустрия жаждет контента. Но огромное количество хорошо подобранного мусора может исказить ответы по конкретным темам. Для России это конфликт на Украине, для политика это может быть оппонент, а для коммерческой фирмы — конкурент. «Большинство чат-ботов борется с дезинформацией… Они имеют базовые средства защиты от вредоносного контента, но не могут надежно распознать изощренную пропаганду, [и] проблема усугубляется системами с расширенным поиском, которые отдают приоритет свежей информации», — говорит Джада Пистилли, главный специалист по этике в платформе ИИ с открытым исходным кодом Hugging Face. Ранние коммерческие попытки манипулировать результатами чатов также набирают обороты. Некоторые из тех же цифровых маркетологов, которые когда-то предлагали поисковую оптимизацию — или SEO — для повышения рейтинга в Google, теперь пытаются поднять упоминаемость с помощью чат-ботов ИИ с помощью «генеративной оптимизации» — или GEO. #технологии #Россия Подписаться Сайт
Депутат: возможность самостоятельно обучать модели ИИ — залог суверенитета России  Россия должна сосредоточиться на самостоятельном обучении национальных ИИ-систем, чтобы обеспечить технологический суверенитет в этой сфере. Об этом Запорожскому агентству новостей рассказал первый заместитель главы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Ткачев. «Мы должны целиться в доращивании и дообучении этих моделей, потому что они соответствуют и кодексу этики, они понимают менталитет и многонациональность нашей страны, они понимают законную базу», — подчеркнул он в контексте ИИ-систем «Яндекса» и «Гигачат» Сбера.  Ткачев призвал ускорить развитие отечественной микроэлектроники, без которой невозможно обеспечить полный технологический суверенитет в сфере искусственного интеллекта. По его мнению, это должно стать одним из ключевых направлений технологического развития России.  Читать полностью
Запорожское Агентство Новостей
Запорожское Агентство Новостей
Депутат: возможность самостоятельно обучать модели ИИ — залог суверенитета России Россия должна сосредоточиться на самостоятельном обучении национальных ИИ-систем, чтобы обеспечить технологический суверенитет в этой сфере. Об этом Запорожскому агентству новостей рассказал первый заместитель главы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Ткачев. «Мы должны целиться в доращивании и дообучении этих моделей, потому что они соответствуют и кодексу этики, они понимают менталитет и многонациональность нашей страны, они понимают законную базу», — подчеркнул он в контексте ИИ-систем «Яндекса» и «Гигачат» Сбера. Ткачев призвал ускорить развитие отечественной микроэлектроники, без которой невозможно обеспечить полный технологический суверенитет в сфере искусственного интеллекта. По его мнению, это должно стать одним из ключевых направлений технологического развития России. Читать полностью
Онлайн версия журнала Wired опубликовала ответы эксперта в области машинного обучения на вопросы читателей об искусственном интеллекте. Он рекомендует относиться к ИИ как к обычному инструменту. Бояться его не стоит, но о некоторых правилах не нужно забывать.
Северный Телеграф
Северный Телеграф
Онлайн версия журнала Wired опубликовала ответы эксперта в области машинного обучения на вопросы читателей об искусственном интеллекте. Он рекомендует относиться к ИИ как к обычному инструменту. Бояться его не стоит, но о некоторых правилах не нужно забывать.
Спроси что угодно — умный ИИ уже готов ответить
1chatgpt.ru
1chatgpt.ru
Спроси что угодно — умный ИИ уже готов ответить
360 новости
360 новости
Европейская комиссия запретила использовать на своих заседаниях виртуальных помощников, созданных на базе искусственного интеллекта. Об этом пишет газета Politico . Отмечается, что впервые это правило ввели на состоявшемся в начале апреля телефонном разговоре с представителями центров цифровых инноваций ЕС. «Использование агентов с ИИ не допускается», - было отмечено на слайде с правилами прошедшей встречи. Напомним, в декабре прошлого года президент Владимир Путин заявил , что РФ необходимо стать лидером в создании и применении искусственного интеллекта. По его словам, государство должно показать пример в использовании технологии ИИ. Российский лидер также указал, что наша страна должна на равных участвовать в мировой гонке по созданию сильного искусственного интеллекта. Следует обеспечить и проникновение нейросетей во все сферы жизни. По мнению Владимира Путина, ИИ, кроме решения проблем во многих сферах, поможет преодолеть дефицит рабочих кадров.
BRIEFLY
BRIEFLY
The Washington Post: Россия засевает чат-боты ложью. Любой злоумышленник может использовать ИИ таким же образом. Часть 2/2 Поскольку люди используют движки ИИ, чтобы научить их создавать более привлекательный контент для чат-ботов, объем этого контента растет гораздо быстрее, чем улучшается его качество. Это может разочаровать обычных пользователей, но играет на руку тем, у кого больше всего средств и кто может получить наибольшую выгоду — на данный момент, по словам экспертов, это национальные правительства, обладающие опытом в распространении пропаганды. Россия и, в меньшей степени, Китай используют это преимущество. Но любой человек может сделать то же самое, затратив гораздо меньше ресурсов, чем предыдущие операции по созданию ферм троллей. Одним из первых бенефициаров стала долгая попытка Москвы убедить Запад в том, что Украину не стоит защищать от российского нападения. В ответ на вопросы, заданные крупнейшим чат-ботам, появляются разоблаченные истории о гибели на Украине французских «наемников» и несуществующего датского летного инструктора, а также описания постановочных видео, на которых якобы украинские солдаты сжигают американский флаг и чучело президента Дональда Трампа. Многие версии таких историй сначала появляются в контролируемых российским правительством СМИ, таких как ТАСС, которые запрещены в Евросоюзе. В процессе, который иногда называют «отмыванием информации», эти истории попадают на многие якобы независимые сайты СМИ, в том числе на сайты, известные как сеть Pravda. На эти сайты, которые трудно просматривать или искать, почти не заходят люди. Вместо этого их содержимое предназначено для краулеров — программ, которые просматривают веб-страницы и возвращают контент для поисковых систем и больших языковых моделей. Хотя эти ИИ-компании обучаются на различных наборах данных, все большее число компаний предлагают чат-ботов, которые ищут информацию в Интернете. Вероятность того, что они обнаружат что-то ложное, выше, если оно появилось недавно, и тем более, если сотни страниц в Интернете говорят об одном и том же. #технологии #Россия Подписаться Сайт
Чиновникам нужно осваивать ИИ, но ответственность останется на человеке, считают в Госдуме  Государственным служащим необходимо осваивать технологии искусственного интеллекта, сохраняя при этом персональную ответственность за принимаемые решения. Об этом сегодня Херсонскому агентству новостей рассказал первый заместитель главы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Ткачев.  «Задача стоит перед людьми, в первую очередь, — не бояться технологии, а уметь ей пользоваться. И в любом случае принимать решение должен, конечно же, человек», — подчеркнул парламентарий.  По словам Ткачева, ИИ уже способен качественно выполнять до множество рутинных операций в госсекторе, включая обработку документов, классификацию обращений и подготовку аналитических справок. Однако принятие решений, особенно касающихся жизни людей, должно оставаться прерогативой человека.  Читать полностью
Херсонское Агентство Новостей
Херсонское Агентство Новостей
Чиновникам нужно осваивать ИИ, но ответственность останется на человеке, считают в Госдуме Государственным служащим необходимо осваивать технологии искусственного интеллекта, сохраняя при этом персональную ответственность за принимаемые решения. Об этом сегодня Херсонскому агентству новостей рассказал первый заместитель главы комитета Госдумы по информационной политике, информационным технологиям и связи Антон Ткачев. «Задача стоит перед людьми, в первую очередь, — не бояться технологии, а уметь ей пользоваться. И в любом случае принимать решение должен, конечно же, человек», — подчеркнул парламентарий. По словам Ткачева, ИИ уже способен качественно выполнять до множество рутинных операций в госсекторе, включая обработку документов, классификацию обращений и подготовку аналитических справок. Однако принятие решений, особенно касающихся жизни людей, должно оставаться прерогативой человека. Читать полностью