12 февраля, 13:22

Эксперты выделяют мегатренды и риски развития ИИ на ближайшие годы

Аналитики включили всепроникающий ИИ в число мегатрендов на ближайшие 5 10 лет ICT Moscow Эксперты Сбера в сборнике результатов научно исследовательской деятельности компании за 2025 год выделяют четыре глобальных мегатренда на ближайшие 5 10 лет Один из них всепроникающий искусственный интеллект Авторы утверждают что в перспективе системы на основе ИИ будут принимать решения самостоятельно помогая людям справляться с растущей экспоненциально сложностью В числе других мегатрендов геополитическая неопределенность демографический разлом и климатическая непредсказуемость Ответом на них по мнению авторов может стать физический ИИ биоморфные системы космические дата центры Физический ИИ Он представляет собой следующую стадию развития современных технологий Роботы оборудованные алгоритмами машинного обучения и системами компьютерного зрения способны свободно перемещаться в пространстве управлять предметами и оперативно реагировать на взаимодействие с людьми в режиме реального времени По прогнозам физический ИИ автоматизирует более 50 трлн годового объема труда и к 2050 году будет развернуто более 1 млрд человекоподобных роботов Биоморфные системы Как отмечается в материале так называемые нейроморфные микросхемы копируя структуру и поведение биологических нейронных сетей демонстрируют значительно меньший расход энергии по сравнению с традиционными процессорами Этот фактор приобретает особую значимость в контексте энергетических ограничений масштабирования ИИ инфраструктуры Космические дата центры Теоретически перемещение части технической инфраструктуры в космическое пространство могло бы снизить нагрузку на земные энергоресурсы Однако по замечаниям экспертов на практике реализация подобных решений сопряжена со значительными сложностями а их целесообразность остается дискуссионной Для ИИ в космических проектах гораздо реалистичнее выглядят менее амбициозные но потенциально эффективные инициативы связанные с обработкой данных непосредственно на устройствах утверждают авторы документа Сообщество CIO во ВКонтакте Сообщество CIO в Max
CIO: канал IT руководителей
CIO: канал IT руководителей
Аналитики включили всепроникающий ИИ в число мегатрендов на ближайшие 5 10 лет ICT Moscow Эксперты Сбера в сборнике результатов научно исследовательской деятельности компании за 2025 год выделяют четыре глобальных мегатренда на ближайшие 5 10 лет Один из них всепроникающий искусственный интеллект Авторы утверждают что в перспективе системы на основе ИИ будут принимать решения самостоятельно помогая людям справляться с растущей экспоненциально сложностью В числе других мегатрендов геополитическая неопределенность демографический разлом и климатическая непредсказуемость Ответом на них по мнению авторов может стать физический ИИ биоморфные системы космические дата центры Физический ИИ Он представляет собой следующую стадию развития современных технологий Роботы оборудованные алгоритмами машинного обучения и системами компьютерного зрения способны свободно перемещаться в пространстве управлять предметами и оперативно реагировать на взаимодействие с людьми в режиме реального времени По прогнозам физический ИИ автоматизирует более 50 трлн годового объема труда и к 2050 году будет развернуто более 1 млрд человекоподобных роботов Биоморфные системы Как отмечается в материале так называемые нейроморфные микросхемы копируя структуру и поведение биологических нейронных сетей демонстрируют значительно меньший расход энергии по сравнению с традиционными процессорами Этот фактор приобретает особую значимость в контексте энергетических ограничений масштабирования ИИ инфраструктуры Космические дата центры Теоретически перемещение части технической инфраструктуры в космическое пространство могло бы снизить нагрузку на земные энергоресурсы Однако по замечаниям экспертов на практике реализация подобных решений сопряжена со значительными сложностями а их целесообразность остается дискуссионной Для ИИ в космических проектах гораздо реалистичнее выглядят менее амбициозные но потенциально эффективные инициативы связанные с обработкой данных непосредственно на устройствах утверждают авторы документа Сообщество CIO во ВКонтакте Сообщество CIO в Max
ZIMA Magazine
ZIMA Magazine
Сразу двое исследователей ИИ публично объявили об уходе из OpenAI и Anthropic предупредив об экзистенциальной угрозе и рисках манипуляции пользователями Один из авторов открыто заявил что мир в опасности другой что реклама в чат ботах может использовать откровения пользователей способами которые мы пока не умеем ни контролировать ни даже до конца понимать На фоне запуска ИИ агентов и возможного вытеснения миллионов рабочих мест дискуссия о границах допустимого звучит все громче Подробности на сайте Зимы
Раньше всех. Ну почти.
Раньше всех. Ну почти.
Эксперты OpenAI и Anthropic предупредили о рисках стремительного развития ИИ Ряд ведущих специалистов покинули свои должности в знак протеста против якобы халатности руководства корпораций не учитывающих риски чрезмерного внедрения ИИ в жизнь человека сообщил портал Axios Anthropic опубликовала отчет в котором говорится что ИИ потенциально может быть использован для подготовки к совершению тяжких преступлений включая создание химического оружия Еще одной опасностью аналитики назвали автономную работу ИИ
Ведущие специалисты в области искусственного интеллекта ИИ из компаний OpenAI Anthropic и других исследовательских центров инициировали расторжение трудовых контрактов в знак протеста против масштабных разработок корпораций не учитывающих риски чрезмерного стремительного внедрения ИИ в жизнь человека Эксперты отмечают растущие риски активного развития ИИ Причиной расторжения трудовых контрактов послужил глубокий внутренний конфликт между исследователями и руководством Ученые опасаются что развитие мощных ИИ систем происходит слишком быстро при этом достаточного внимания контроля рисков не уделяется Некоторые эксперты отметили что ИИ несёт серьезная угрозу человечеству при сохранении сегодняшних темпов Anthropic опубликовала отчет в котором говорится что ИИ потенциально может быть использован для подготовки к совершению тяжких преступлений так же генерирующие ИИ могут использоваться для создания химического оружия планирования насилия и других опасных действий при полном отсутствии контроля со стороны человека Еще одной опасностью аналитики назвали автономную работу ИИ то есть без вмешательства человека результаты которой могут иметь непредсказуемые последствия Акции компаний разработчиков программного обеспечения на Нью Йоркской фондовой бирже резко падают из за опасений инвесторов Причина опасения что нейросети уже в ближайшее время заменят платное ПО вытеснив привычные программы и модели их использования В компетентном сообществе обсуждения не останавливаются эксперты настаивают усилить меры по контролю за ИИ и вести разработки с учетом контроля глобальных рисков Как пример актуальная новость от SHOT о том что причиной массового блока Apple ID у россиян стала нейросеть которая должна была отследить находится ли пользователь под санкциями США и ЕС но в итоге она без разбора забанила десятки тысяч россиян   Боевые Технологии НАШ ЧАТ
Боевые Технологии
Боевые Технологии
Ведущие специалисты в области искусственного интеллекта ИИ из компаний OpenAI Anthropic и других исследовательских центров инициировали расторжение трудовых контрактов в знак протеста против масштабных разработок корпораций не учитывающих риски чрезмерного стремительного внедрения ИИ в жизнь человека Эксперты отмечают растущие риски активного развития ИИ Причиной расторжения трудовых контрактов послужил глубокий внутренний конфликт между исследователями и руководством Ученые опасаются что развитие мощных ИИ систем происходит слишком быстро при этом достаточного внимания контроля рисков не уделяется Некоторые эксперты отметили что ИИ несёт серьезная угрозу человечеству при сохранении сегодняшних темпов Anthropic опубликовала отчет в котором говорится что ИИ потенциально может быть использован для подготовки к совершению тяжких преступлений так же генерирующие ИИ могут использоваться для создания химического оружия планирования насилия и других опасных действий при полном отсутствии контроля со стороны человека Еще одной опасностью аналитики назвали автономную работу ИИ то есть без вмешательства человека результаты которой могут иметь непредсказуемые последствия Акции компаний разработчиков программного обеспечения на Нью Йоркской фондовой бирже резко падают из за опасений инвесторов Причина опасения что нейросети уже в ближайшее время заменят платное ПО вытеснив привычные программы и модели их использования В компетентном сообществе обсуждения не останавливаются эксперты настаивают усилить меры по контролю за ИИ и вести разработки с учетом контроля глобальных рисков Как пример актуальная новость от SHOT о том что причиной массового блока Apple ID у россиян стала нейросеть которая должна была отследить находится ли пользователь под санкциями США и ЕС но в итоге она без разбора забанила десятки тысяч россиян Боевые Технологии НАШ ЧАТ
Специалисты OpenAI и Anthropic предупреждают о рисках быстрого развития ИИ Несколько крупных сотрудников покинули компании заявив что технологии развиваются слишком быстро и без достаточного контроля По данным СМИ их тревожит возможное злоупотребление ИИ В Anthropic отметили что системы теоретически могут применяться для подготовки тяжких преступлений и работать автономно без надзора НМШ
НЕ МОРГЕНШТЕРН
НЕ МОРГЕНШТЕРН
Специалисты OpenAI и Anthropic предупреждают о рисках быстрого развития ИИ Несколько крупных сотрудников покинули компании заявив что технологии развиваются слишком быстро и без достаточного контроля По данным СМИ их тревожит возможное злоупотребление ИИ В Anthropic отметили что системы теоретически могут применяться для подготовки тяжких преступлений и работать автономно без надзора НМШ