25 мая, 12:06

Нейросети и поисковые роботы: опасности и ошибки

Нейросети и поисковые роботы: опасности и ошибки
Яндекс Нейро не купилась на запрос про клей и пиццу, в отличие от ИИ от Google.   Доверие к нейросеткам возвращается
Техномотель
Техномотель
Яндекс Нейро не купилась на запрос про клей и пиццу, в отличие от ИИ от Google. Доверие к нейросеткам возвращается
Начали возникать опасения, что нейросети перепишут весь контент в интернете. Потому что для нейросети создать статью дело нескольких секунд. В то время как для человека для этого потребуются в лучшем случае часы.  Далее роботы поисковых сетей начинают обрабатывать массив выпущенного нейросетями контента и выдавать в выдаче. А т.к. созданного нейросетями контента на порядки  больше  потому что этот контент ограничен только возможностями серверов , то есть серьёзные опасения, что через очень короткий промежуток времени в интернете будет только информация, созданная нейросетями.  Чем это опасно? Нейросети часто врут. Кто работал с нейросетями знает, что их нельзя спрашивать про реальные факты, типа "Расскажи мне про такого-то исторического персонажа" потому что нейросеть подхватив ключевые слова додумает детали и выдаст тебе красивый, причёсанный текст, который вообще не имеет отношения к реальности. Так, например, нейросети при просьбе кратко пересказать сюжеты известных книг придумывали не только новых персонажей, но и новые сюжетные ходы.   Понятно, что появились опасения, что нейросети просто выдумают параллельную вселенную, а поисковые роботы выдадут это в строке поиска. Таким образом мы просто утонем в лавине переписанного вранья и не сможем потом разобраться, в какой момент пропала истина и её заменили фантазии нейросети.   Теперь переходим к практике. Буквально на днях нейронка от Гугла выдала по запросу рецепт  скрин 1 , в котором рекомендовалось добавить клея в соус для придания густоты. Оказалось, это был шуточный ответ на Reddit 11-летней давности. Нейронка подхватила его и выдала в реальные рекомендации потому не вывезла в  постиронию. В реальный рецепт выдала, повторюсь.  Но буквально через несколько дней  нейронка от Яндекса  скрин 2   стала выдавать в поиске уточнение, что предложение добавить соус это шутка. Конечно, это быть может результат ручного управления, но есть надежда, что нейросети смогут фильтровать контент и в случае упоминаний о фейковости вводить корректировки в выдачу.
Роман Сапоньков
Роман Сапоньков
Начали возникать опасения, что нейросети перепишут весь контент в интернете. Потому что для нейросети создать статью дело нескольких секунд. В то время как для человека для этого потребуются в лучшем случае часы. Далее роботы поисковых сетей начинают обрабатывать массив выпущенного нейросетями контента и выдавать в выдаче. А т.к. созданного нейросетями контента на порядки больше потому что этот контент ограничен только возможностями серверов , то есть серьёзные опасения, что через очень короткий промежуток времени в интернете будет только информация, созданная нейросетями. Чем это опасно? Нейросети часто врут. Кто работал с нейросетями знает, что их нельзя спрашивать про реальные факты, типа "Расскажи мне про такого-то исторического персонажа" потому что нейросеть подхватив ключевые слова додумает детали и выдаст тебе красивый, причёсанный текст, который вообще не имеет отношения к реальности. Так, например, нейросети при просьбе кратко пересказать сюжеты известных книг придумывали не только новых персонажей, но и новые сюжетные ходы. Понятно, что появились опасения, что нейросети просто выдумают параллельную вселенную, а поисковые роботы выдадут это в строке поиска. Таким образом мы просто утонем в лавине переписанного вранья и не сможем потом разобраться, в какой момент пропала истина и её заменили фантазии нейросети. Теперь переходим к практике. Буквально на днях нейронка от Гугла выдала по запросу рецепт скрин 1 , в котором рекомендовалось добавить клея в соус для придания густоты. Оказалось, это был шуточный ответ на Reddit 11-летней давности. Нейронка подхватила его и выдала в реальные рекомендации потому не вывезла в постиронию. В реальный рецепт выдала, повторюсь. Но буквально через несколько дней нейронка от Яндекса скрин 2 стала выдавать в поиске уточнение, что предложение добавить соус это шутка. Конечно, это быть может результат ручного управления, но есть надежда, что нейросети смогут фильтровать контент и в случае упоминаний о фейковости вводить корректировки в выдачу.
Нейросеть от Google уличили в бредовых ответах на запросы.   Так, на «сыр не прилипает к пицце» ИИ предложила использовать немного нетоксичного клея, проиндексировав шуточный ответ 11-летней давности с Reddit.  Пользователи стали испытывать на странности и другие нейросети. Например, Нейро от Яндекса с задачей справилась хорошо.     НЕ МОРГЕНШТЕРН
НЕ МОРГЕНШТЕРН
НЕ МОРГЕНШТЕРН
Нейросеть от Google уличили в бредовых ответах на запросы. Так, на «сыр не прилипает к пицце» ИИ предложила использовать немного нетоксичного клея, проиндексировав шуточный ответ 11-летней давности с Reddit. Пользователи стали испытывать на странности и другие нейросети. Например, Нейро от Яндекса с задачей справилась хорошо. НЕ МОРГЕНШТЕРН
Обновленный поисковик Google разозлил пользователей странной выдачей. Компания нашла гениальное решение  Пользователю, который гуглил способ заставить сыр лучше держаться на пицце и не сползать с нее, нейропоиск посоветовал добавить в соус немного клея, причем рекомендовал взять именно нетоксичный. Оказалось, что ИИ взял этот вредный совет из шутливого поста на Reddit, опубликованного около десяти лет назад.   В другом случае поисковик уверенно предписал готовить курицу при температуре 102 градуса по Фаренгейту, что составляет примерно 39 градусов Цельсия. Максимум, чего удастся добиться с таким адским разогревом — протухшей птицы. Неясно, ошиблась ли нейросеть с самой температурой, или же с верной шкалой её измерения. Люди публикуют и другие курьезные советы от поисковика, вплоть до рекомендации кушать камни.   Google уже отреагировала на жалобы и заверила, что ошибки возникают только при «очень необычных запросов», и они настолько редки, что большинство людей с ними не столкнется. Компания будет использовать эти «отдельные примеры», чтобы улучшить алгоритмы.   Сегодня пользователи начали замечать исчезновение конкретных ответов, которые вызвали резонанс в сети. Похоже, Google не нашла ничего лучше, чем выборочно удалять неудачные советы от ИИ в ручном режиме.
iGuides.ru
iGuides.ru
Обновленный поисковик Google разозлил пользователей странной выдачей. Компания нашла гениальное решение Пользователю, который гуглил способ заставить сыр лучше держаться на пицце и не сползать с нее, нейропоиск посоветовал добавить в соус немного клея, причем рекомендовал взять именно нетоксичный. Оказалось, что ИИ взял этот вредный совет из шутливого поста на Reddit, опубликованного около десяти лет назад. В другом случае поисковик уверенно предписал готовить курицу при температуре 102 градуса по Фаренгейту, что составляет примерно 39 градусов Цельсия. Максимум, чего удастся добиться с таким адским разогревом — протухшей птицы. Неясно, ошиблась ли нейросеть с самой температурой, или же с верной шкалой её измерения. Люди публикуют и другие курьезные советы от поисковика, вплоть до рекомендации кушать камни. Google уже отреагировала на жалобы и заверила, что ошибки возникают только при «очень необычных запросов», и они настолько редки, что большинство людей с ними не столкнется. Компания будет использовать эти «отдельные примеры», чтобы улучшить алгоритмы. Сегодня пользователи начали замечать исчезновение конкретных ответов, которые вызвали резонанс в сети. Похоже, Google не нашла ничего лучше, чем выборочно удалять неудачные советы от ИИ в ручном режиме.
GeekNeural: IT & Нейросети
GeekNeural: IT & Нейросети
ИИ от Google ультанул: начитавшийся щитпостов из реддита Overview предложил пользователю добавить в пиццу настоящий клей, чтобы сыр лучше держался. После этого появилась гениальная девушка, решившая проверить рецепт. К счастью, она использовала детский клей, который делают нетоксичным на случай, если дети его проглотят. Впрочем, сыр действительно приклеился. GeekNeural #Fun