26 ноября, 00:04
Илья Суцкевер о будущем ИИ: новые подходы к обучению и вызовы безопасности

Denis Sexy IT 🤖
Илья дал большое интервью www youtube com watch v aR20FWCCjAs Вот главное Сейчас модели выглядят намного умнее на тестах чем в реальных задачах они переобучены на эвалы и плохо обобщают особенно в сложных многошаговых сценариях Главный технический барьер к AGI ненадёжное обобщение и низкая человеческая обучаемость простое масштабирование предобучения и RL это не решит Эпоха масштабируем всё предобучением заканчивается данные конечны RL жрёт много вычислений начинается новая эпоха исследований с поиском новых рецептов обучения в т ч ценностные функции архитектур моделей другие виды RL и т п Будущее AGI видится как система которая учится как человек один и тот же базовый разум может быстро осваивать разные профессии постоянно дообучаясь в реальном мире а не готовый мозг который знает всё из коробки Массовое распространение таких АИ учеников по экономике почти неизбежно приведёт к очень быстрому росту производительности и ВВП скорость будет сильно зависеть от регулирования в разных странах Скорее всего появится много сверхсильных АИ от разных компаний специализирующихся по нишам право медицина R D и т д а не один богоподобный монополист суперинтеллект аниме Пантеон смотрели Пора если нет Основной риск огромная мощь если сделать чрезвычайно сильного целеустремлённого агента даже с хорошей целью результат может сильно не понравиться людям желательно ограничивать максимальную мощность единичных систем В качестве цели для первых суперинтеллектов он рассматривает заботу о чувствующих существах в т ч о самом АИ как более реалистичную и устойчивую чем забота только о людях но признаёт что это не идеальное решение Он ожидает постепенный но всё более заметный показ мощных АИ обществу по мере роста реальной силы моделей компании и государства станут намного более параноидальны и начнут активно координироваться по безопасности и регулированию Краткосрочный хороший сценарий универсальный высокий доход и то что АИ делает почти всю работу долгосрочно это нестабильно потому что люди выпадают из активного участия в принятии решений Один из возможных ему самому не очень нравящийся способов долгосрочной стабилизации частичное слияние людей с АИ через продвинутые нейроинтерфейсы чтобы люди разделяли понимание с системами и оставались в контуре управления Оценка горизонта до АИ который учится как человек и может стать базой для суперинтеллекта примерно 5 20 лет текущий чистый масштабинг в какой то момент упрётся в потолок SSI его АИ лаба он описывает как чисто исследовательскую компанию с другим техническим подходом к обобщению и безопасности которая не ставит ставку на простое наращивание масштаба текущих архитектур и ожидает что в итоге крупные игроки всё равно сойдутся в общих стратегиях по безопасному выводу суперинтеллекта в мир
Технологии7 часов назад


Нейросети & Технологии | DeepTech
Интервью с сооснователем OpenAI Ильей Суцкевером Сооснователь OpenAI Илья Суцкевер поделился своим мнением в интервью с блогером Дваркешем Пателем Они обсудили пути преодоления существующих ограничений в обучении ИИ для достижения сходства с человеческими способностями и отметили почему люди по прежнему превосходят модели Также Суцкевер выразил критику по поводу конкуренции среди ведущих ИИ лабораторий Смотрите по ссылке DeepTechNET Канал про тренды из мира IT технологий нейросетей и бизнеса
Технологии4 часа назад
Похожие новости



+4



+2











Яндекс представляет универсальную нейросеть Алиса AI для бизнеса и повседневных задач
Технологии
13 часов назад


+4
Андрей Карпаты представил симулятор LLM Council для совместной работы нейросетей
Технологии
1 день назад


+2
OpenAI анонсировала выпуск первого ИИ гаджета с дизайном Джони Айва
Технологии
11 часов назад



Исследование Anthropic показывает значительное ускорение работы с помощью ИИ
Технологии
7 часов назад

Wikipedia публикует руководство по распознаванию текстов, созданных ИИ
Технологии
1 день назад

Запуск платформы данных для строительной отрасли в России
Общество
18 часов назад
