12 февраля, 13:22
Эксперты выделяют мегатренды и риски развития ИИ на ближайшие годы


CIO: канал IT руководителей
Аналитики включили всепроникающий ИИ в число мегатрендов на ближайшие 5 10 лет ICT Moscow Эксперты Сбера в сборнике результатов научно исследовательской деятельности компании за 2025 год выделяют четыре глобальных мегатренда на ближайшие 5 10 лет Один из них всепроникающий искусственный интеллект Авторы утверждают что в перспективе системы на основе ИИ будут принимать решения самостоятельно помогая людям справляться с растущей экспоненциально сложностью В числе других мегатрендов геополитическая неопределенность демографический разлом и климатическая непредсказуемость Ответом на них по мнению авторов может стать физический ИИ биоморфные системы космические дата центры Физический ИИ Он представляет собой следующую стадию развития современных технологий Роботы оборудованные алгоритмами машинного обучения и системами компьютерного зрения способны свободно перемещаться в пространстве управлять предметами и оперативно реагировать на взаимодействие с людьми в режиме реального времени По прогнозам физический ИИ автоматизирует более 50 трлн годового объема труда и к 2050 году будет развернуто более 1 млрд человекоподобных роботов Биоморфные системы Как отмечается в материале так называемые нейроморфные микросхемы копируя структуру и поведение биологических нейронных сетей демонстрируют значительно меньший расход энергии по сравнению с традиционными процессорами Этот фактор приобретает особую значимость в контексте энергетических ограничений масштабирования ИИ инфраструктуры Космические дата центры Теоретически перемещение части технической инфраструктуры в космическое пространство могло бы снизить нагрузку на земные энергоресурсы Однако по замечаниям экспертов на практике реализация подобных решений сопряжена со значительными сложностями а их целесообразность остается дискуссионной Для ИИ в космических проектах гораздо реалистичнее выглядят менее амбициозные но потенциально эффективные инициативы связанные с обработкой данных непосредственно на устройствах утверждают авторы документа Сообщество CIO во ВКонтакте Сообщество CIO в Max


Ernest Vardanean 🇲🇩🇦🇲
Инсайдеры ИИ индустрии бьют тревогу Развитие искусственного интеллекта происходит настолько быстро что даже сами разработчики начинают опасаться последствий Об этом пишет Axios со ссылкой на сотрудников ведущих технологических компаний По данным издания современные ИИ системы стремительно совершенствуются они работают быстрее становятся умнее и уже способны самостоятельно создавать новые продукты и решения Однако такие темпы развития вызывают серьёзные опасения внутри самой индустрии Некоторые сотрудники OpenAI и других компаний публично выражают тревогу по поводу будущего технологий Часть специалистов даже покидает свои должности заявляя что развитие ИИ происходит без достаточного уровня контроля и безопасности Отдельное беспокойство вызвал доклад компании Anthropic В нём говорится что искусственный интеллект потенциально может использоваться для подготовки тяжких преступлений включая разработку химического оружия В отчёте также рассматриваются сценарии при которых ИИ может действовать автономно без участия человека что создаёт дополнительные риски Эксперты предупреждают человечество может оказаться не готово к последствиям стремительного развития ИИ При этом сами технологии продолжают активно внедряться в экономику оборону медицину и другие ключевые сферы В индустрии всё чаще звучат призывы к усилению контроля разработке международных правил и более осторожному внедрению искусственного интеллекта чтобы его развитие не вышло из под контроля АНТИФОСФОР Подписаться


ВЕДОМОСТИ
Эксперты OpenAI и Anthropic предупредили о рисках стремительного развития искусственного интеллекта ИИ пишет Axios Ряд исследователей выразили обеспокоенность тем что новые модели ИИ развиваются быстрее чем механизмы их контроля По данным издания некоторые сотрудники OpenAI и Anthropic покинули компании ссылаясь на этические соображения и экзистенциальную угрозу которую по их мнению представляет технология Axios отмечает что последние версии моделей включая ChatGPT и Claude становятся значительно мощнее и способны самостоятельно создавать и совершенствовать сложные продукты В частности сообщается что одна из новых моделей OpenAI участвовала в собственном обучении а инструменты Anthropic продемонстрировали способность к автономному развитию Anthropic выпустила доклад где отметила что искусственный интеллект теоретически способен применяться в тяжких преступлениях включая создание химического оружия хотя вероятность этого невелика Unsplash Telegram Max


vc.ru
На этой неделе несколько исследователей покинули ИИ компании и осудили их политику в отношении нейросетей обратило внимание Axios Специалист по безопасности ушёл из Anthropic предупредив что мир в опасности Другая исследовательница уволилась из OpenAI из xAI ушли двое сооснователей Один из них назвал 2026 год самым напряжённым для будущего человечества как вида vc ru ai 2735361


Раньше всех. Ну почти.
Эксперты OpenAI и Anthropic предупредили о рисках стремительного развития ИИ Ряд ведущих специалистов покинули свои должности в знак протеста против якобы халатности руководства корпораций не учитывающих риски чрезмерного внедрения ИИ в жизнь человека сообщил портал Axios Anthropic опубликовала отчет в котором говорится что ИИ потенциально может быть использован для подготовки к совершению тяжких преступлений включая создание химического оружия Еще одной опасностью аналитики назвали автономную работу ИИ


Боевые Технологии
Ведущие специалисты в области искусственного интеллекта ИИ из компаний OpenAI Anthropic и других исследовательских центров инициировали расторжение трудовых контрактов в знак протеста против масштабных разработок корпораций не учитывающих риски чрезмерного стремительного внедрения ИИ в жизнь человека Эксперты отмечают растущие риски активного развития ИИ Причиной расторжения трудовых контрактов послужил глубокий внутренний конфликт между исследователями и руководством Ученые опасаются что развитие мощных ИИ систем происходит слишком быстро при этом достаточного внимания контроля рисков не уделяется Некоторые эксперты отметили что ИИ несёт серьезная угрозу человечеству при сохранении сегодняшних темпов Anthropic опубликовала отчет в котором говорится что ИИ потенциально может быть использован для подготовки к совершению тяжких преступлений так же генерирующие ИИ могут использоваться для создания химического оружия планирования насилия и других опасных действий при полном отсутствии контроля со стороны человека Еще одной опасностью аналитики назвали автономную работу ИИ то есть без вмешательства человека результаты которой могут иметь непредсказуемые последствия Акции компаний разработчиков программного обеспечения на Нью Йоркской фондовой бирже резко падают из за опасений инвесторов Причина опасения что нейросети уже в ближайшее время заменят платное ПО вытеснив привычные программы и модели их использования В компетентном сообществе обсуждения не останавливаются эксперты настаивают усилить меры по контролю за ИИ и вести разработки с учетом контроля глобальных рисков Как пример актуальная новость от SHOT о том что причиной массового блока Apple ID у россиян стала нейросеть которая должна была отследить находится ли пользователь под санкциями США и ЕС но в итоге она без разбора забанила десятки тысяч россиян Боевые Технологии НАШ ЧАТ


НЕ МОРГЕНШТЕРН
Специалисты OpenAI и Anthropic предупреждают о рисках быстрого развития ИИ Несколько крупных сотрудников покинули компании заявив что технологии развиваются слишком быстро и без достаточного контроля По данным СМИ их тревожит возможное злоупотребление ИИ В Anthropic отметили что системы теоретически могут применяться для подготовки тяжких преступлений и работать автономно без надзора НМШ

ZIMA Magazine
Сразу двое исследователей ИИ публично объявили об уходе из OpenAI и Anthropic предупредив об экзистенциальной угрозе и рисках манипуляции пользователями Один из авторов открыто заявил что мир в опасности другой что реклама в чат ботах может использовать откровения пользователей способами которые мы пока не умеем ни контролировать ни даже до конца понимать На фоне запуска ИИ агентов и возможного вытеснения миллионов рабочих мест дискуссия о границах допустимого звучит все громче Подробности на сайте Зимы


Лента дня
Работники ИИ компаний испугались за судьбу мира и начали увольняться Глава отдела безопасности искусственного интеллекта компании Anthropic написал коллегам письмо о том что мир в опасности а затем уволился Также свои должности в знак протеста покинули несколько ведущих специалистов из OpenAI создавшей ChatGPT Специалисты обвинили в халатности руководство корпораций которые не учитывают риск чрезмерного внедрения ИИ жизнь в человека В отчёте Anthropic говорится что нейросети потенциально могут использоваться для подготовки к тяжких преступлений включая создание химоружия повод задуматься да бред это всё не о чем переживать Подпишись на Ленту дня MAX ТГ Участвуй в розыгрыше

СОВЕТНИК ПРЕЗИДЕНТА
Исследователь безопасности в крупной ИИ компании Anthropic ушел в отставку предупредив что мир находится в опасности из за быстрого развития искуственного интеллекта ИИ Вот как об этом сообщает издание Semafor Мринак Шарма заявил что команда по безопасности постоянно сталкивается с давлением заставляющим откладывать в сторону то что важнее всего вызывая опасения по поводу биотерроризма и других катастрофических рисков Anthropic была основана для создания безопасного ИИ однако даже ее генеральный директор Дарио Амодей предупредил что прогресс в области ИИ происходит слишком быстро и призвал к регулированию чтобы замедлить его Этот уход следует более широкой тенденции старшие исследователи безопасности ИИ включая членов бывшей команды OpenAI Superalignment ушли в отставку утверждая что компании отдают приоритет прибыли а не снижению опасности создания ИИ систем гораздо более умных чем мы

Похожие новости



+5












Anthropic запускает 10 ИИ агентов для оптимизации финансовых процессов
Технологии
1 день назад


+5
Исследование: ИИ увеличивает рабочую нагрузку сотрудников
Технологии
1 день назад

Дженсен Хуанг: Искусственный интеллект создает рабочие места в новых отраслях
Технологии
1 день назад


Илон Маск объединяет xAI с SpaceX, создавая новое подразделение SpaceXAI
Технологии
3 часа назад


Anthropic запускает режим Сновидений для самообучения ИИ агентов
Технологии
3 часа назад

Apple анонсирует возможность выбора сторонних ИИ моделей в iOS 27
Технологии
1 день назад
