21 января, 00:04
Эксперты предупреждают о росте недостоверной информации в чат-ботах и возможностях интеграции ИИ


Neural Brain - Нейросети
ИИ кризис чего не хватает нейросетям Суть проблемы проста крупные площадки и сервисы закрывают доступ к своим базам данных чтобы защитить персональные данные и интеллектуальную собственность а значит ИИ разработчикам всё труднее получать данныы для обучения В результате уменьшается объём качественной информации для обучения растут риски галлюцинаций разработчики вынуждены тратить больше ресурсов на поиск альтернативных источников Но люди всегда найдут выход сейчас это платформы агрегаторы ИИ которые помогают объединить разные модели ИИ в одном месте чтобы одна модель дополняла другую Кстати эксперты убеждены Это может стать трендом в 2026 году умные интегрированные ИИ экосистемы а не просто отдельные чат боты или генераторы Ждём ваших реакций
Технологии17 часов назад

НОВОСТИ 📰
О росте массива недостоверной информации среди ведущих чат ботов в том числе у ChatGPT и Perplexity предупредили исследователи из компании NewsGuard США По данным экспертов несмотря на технологический прогресс и интеграцию онлайн поиска доля ложных утверждений в ответах выросла с 18 до 35 Проблема может сохраниться надолго поскольку имеет комплексный характер Многие разработчики торопятся создать нейросетевые модели обучают их на не слишком большом объеме данных в которых есть как достоверная так и ложная информация Всё это отражается на результатах Техническая природа проблемы кроется в архитектуре больших языковых моделей которые предсказывают следующее слово на основе статистических закономерностей а не реального понимания контекста Ложные ответы могут приводить к самым разным негативным последствиям от запуска кода уничтожающего данные до приема медикаментов создающих реальные риски для здоровья А наши чиновники мечтают заменить систему управления на ИИ Тогда такие проблемы как после снегопада на Камчатке станут привычными Для чиновника самое главное избежать персональной ответственности за факап Т е основная задача ИИ это прикрыть зад чиновника
Технологии11 часов назад


Нейросети & Технологии | DeepTech
Как улучшить точность ответов чат ботов вдвое новые методы от Google Исследователи в Google обнаружили что использование маркеров сомнения таких как О Подождите и Но способствует самокоррекции моделей Такие слова помогают переключать модели на анализ и уточнение информации Также рекомендовано подталкивать модели к многообразию подходов разбивая проблему на части и рассматривая ее глазами разных специалистов критика дизайнера и аналитика Запуск внутреннего конфликта в модели помогает выявить ее слабости и создать более точные ответы избегая галлюцинаций DeepTechNET Канал про тренды из мира IT технологий нейросетей и бизнеса
Технологии6 часов назад
Похожие новости









+3



+5



+1

Исследование выявило высокую долю ошибок в чат-ботах на основе ИИ
Технологии
1 день назад


Ученые разрабатывают инструменты для понимания работы ИИ
Наука
9 часов назад


Опрос ВЦИОМ: россияне с трудом отличают контент, созданный ИИ, от человеческого
Технологии
18 часов назад


+3
Новая схема мошенничества в Telegram: пользователи теряют доступ к аккаунтам и деньгам
Происшествия
14 часов назад


+5
Исследование выявило утечки данных в 196 из 198 iOS приложений с ИИ в App Store
Технологии
17 часов назад


+1
Аналитики Forrester сообщают об отсутствии роста в сфере искусственного интеллекта
Экономика
10 часов назад