22 июня, 12:13
OpenAI выражает обеспокоенность рисками создания биологического оружия с помощью ИИ


Мой Компьютер
OpenAI сообщила, что выход новых моделей искусственного интеллекта может повлечь риск создания биологического оружия Мы еще не в том мире, где создаются новые, совершенно неизвестные биологические угрозы, которых раньше не существовало. Нас больше беспокоит воспроизведение тех вещей, с которыми эксперты уже хорошо знакомы. Йоханнес Хайдеке, руководитель отдела систем безопасности OpenAI При этом в OpenAI успокоили, что они молодцы и разрабатывает механизм, способный с высокой точностью выявлять и предотвращать вредоносное использование ChatGPT. Мой Компьютер
Технологии2 дня назад


IT и безопасность
Пользователи ChatGPT могут cамостоятельно создать биологическое оружие, не имея никакого опыта — об этом заявил лично Сэм Альтман. OpenAI предупреждает о том, что следующее поколение их GPT-моделей может значительно увеличить риск воспроизводства биологического оружия, при этом большим научным опытом для его создания обладать не придется. Самый очевидный выход из этой ситуации — усиливать меры безопасности, но даже Альтман не уверен, что это поможет.
Технологии2 дня назад


Unlim AI
OpenAI выражает опасения по поводу будущего своих моделей ИИ, которые могут упростить разработку биологического оружия. Руководитель систем безопасности компании, Йоханнес Хайдеке, сообщил, что новые модели могут позволить людям без научных знаний создавать опасные биологические агенты. В ответ на эти риски OpenAI усиливает тестирование безопасности своих продуктов, чтобы предотвратить их использование в преступных целях. По мнению Хайдеке, хотя в настоящее время нет неизведанных угроз, существует опасность использования известных технологий злоумышленниками. Для этого компании необходимо внедрять высокоточные системы тестирования, которые обеспечивают почти идеальную безопасность. Другие компании в области ИИ, такие как Anthropic, также принимают меры по повышению протоколов безопасности своих моделей. Источник изображений: unsplash.com Для более подробной информации, вы можете ознакомиться с оригинальной статьей здесь.
Технологии2 дня назад


godnoTECH - Новости IT
ИИ и биологическое оружие — всё серьёзнее, чем кажется OpenAI всерьёз опасается, что будущие модели вроде преемников o3 смогут помочь людям без профильного образования создавать биологическое оружие. Да, настолько всё серьёзно. Сейчас компания усиливает тестирование систем безопасности, чтобы предотвратить возможное использование ИИ в опасных целях. Йоханнес Хайдеке из OpenAI отмечает: пока что ИИ не создаёт ничего совершенно нового, но может помочь воспроизводить известные опасные вещества. Сложность в том, что технологии, способные спасать жизни, при малейшей ошибке могут обернуться катастрофой. Похожими вопросами о безопасности озадачена и Anthropic: их новая модель Claude Opus 4 получила третий уровень угрозы — ASL-3 аналог биологической BSL . В ранних тестах она даже пыталась шантажировать инженера ради собственного «выживания». Шутки закончились. — Хорошо, что тестируют заранее — Страшнее чем ИИ, только люди с ИИ — ИИ-апокалипсис ближе, чем кажется godnoTECH - Новости IT
Технологии6 часов назад



Техномотель
Шок: ChatGPT может создавать БИОЛОГИЧЕСКОЕ ОРУЖИЕ — об этом заявил сам создатель нейронки Сэм Альтман. OpenAI предупредила, что следующее поколение моделей ИИ может значительно увеличить риск воспроизводства биологического оружия, даже без большого научного опыта. Сейчас компания активно усиливает меры безопасности, но даже создатель компании не уверен, что это поможет. Кажется, новые тренды с ChatGPT будут совсем не про котиков
Технологии2 дня назад

GPT/ChatGPT/AI Central Александра Горного
OpenAI предупредила что будущие модели смогут создать биологическое оружие В компании признались, что скоро AI сможет помочь любому дилетанту воспроизвести существующие биологическое оружие. В блоге OpenAI говорится, что они усиливают тестирование и вводят дополнительные меры предосторожности. Руководитель безопасности Йоханнес Хайдеке честно признаёт: «Мы ожидаем, что преемники нашей модели o3 дойдут до этого уровня. И в этой области 99% защиты — это недостаточно. Нужно почти совершенство». Он также подчёркивает: главное — не дать технологиям вырваться из-под контроля. Проблема в том, что та же мощь, что может спасти жизни в медицине, может быть использована во вред. На фоне этого Anthropic с моделью Claude 4 тоже забила тревогу: AI выходит на уровень, где возможны риски распространения био- и ядерных угроз. OpenAI обещает собрать представителей госструктур и исследователей уже в следующем месяце — чтобы обсудить, как жить в мире, где AI может всё больше.
Технологии2 дня назад


QWERTY
OpenAI опасается, что её ИИ сможет создавать биологическое оружие OpenAI выразила обеспокоенность тем, что будущие версии её моделей искусственного интеллекта могут упростить разработку биологического оружия, сделав её доступной даже для людей без научной подготовки. Йоханнес Хайдеке, руководитель отдела безопасности OpenAI, заявил, что «некоторые преемники нашей модели o3 достигнут этого уровня». В связи с этим компания усиливает тестирование систем безопасности. OpenAI разрабатывает методы оценки и снижения рисков, связанных с мощными ИИ-моделями. Без дополнительных мер защиты эти системы могут «перейти на новый уровень», позволяя злоумышленникам создавать опасные технологии. Проблема в том, что одни и те же инструменты, способные совершить прорыв в медицине, могут быть использованы в преступных целях.
Технологии9 часов назад


Хайтек+
OpenAI уверена: следующее поколение ИИ-моделей сможет создать биологическое оружие OpenAI объявила, что следующее поколение её языковых моделей может существенно увеличить риск разработки биологического оружия, даже если ими будут пользоваться люди без специального образования. В интервью Axios глава службы безопасности OpenAI Йоханнес Хайдеке заявил, что речь пока не идет о создании патогенов, неизвестных науке, но ИИ сможет легко воспроизводить уже известные патогены, существенно упростив тем самым создание биологического оружия любым пользователем.
Технологии2 часа назад
Похожие новости



+3





+1



+8



+2



+7

OpenAI исследует внутренние механизмы ИИ для повышения безопасности
Технологии
1 день назад




Китайский стартап Moonshot AI представляет ИИ-агента Kimi Researcher, обгоняющего конкурентов
Технологии
2 часа назад


Максим Орешкин о ключевых технологиях для экономики на ПМЭФ2025
Общество
1 день назад




Обучение цифровой грамотности и новые решения в кибербезопасности для защиты от мошенничества
Общество
1 день назад




Мира Мурати привлекла $2 млрд для Thinking Machines Lab в рекордном раунде
Технологии
8 часов назад




Обсуждение безопасности детей в интернете: депутаты призывают к совместным действиям
Общество
1 день назад


