4 июня, 19:54
Сотрудники OpenAI и Google DeepMind призывают к открытому обсуждению рисков ИИ


Bloomberg
Сотрудники OpenAI хотят получить защиту, чтобы высказываться о "серьезных рисках" ИИ. Нынешние и бывшие сотрудники OpenAI и Google DeepMind говорят, что "широкие соглашения о конфиденциальности не позволяют нам высказывать свои опасения". Пока не существует эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники - одни из немногих, кто может призвать их к ответу перед общественностью. 2024[BBG] Блумберг Подписаться


Политика Страны
Сотрудники OpenAI хотят получить защиту, чтобы высказываться о "серьезных рисках" искусственного интеллекта. Об этом пишет Bloomberg. Нынешние и бывшие сотрудники OpenAI и Google DeepMind говорят, что "широкие соглашения о конфиденциальности не позволяют нам высказывать свои опасения". Пока не существует эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники - одни из немногих, кто может призвать их к ответу перед общественностью, пишет издание. Сайт "Страна" YouTube Прислать новость/фото/видео Реклама на канале Помощь "Стране"

Кролик с Неглинной
Бывшие и действующие сотрудники американских разработчиков искусственного интеллекта OpenAI и Google DeepMind подписали открытое письмо, в котором заявили о рисках, который несет ИИ, и призвали защитить их от возможного возмездия компаний за критику, пишет агентство Bloomberg. «Эти риски варьируются от дальнейшего углубления существующего неравенства до манипуляций и дезинформации, до потери контроля над автономными системами ИИ, что потенциально может привести к исчезновению человечества», – говорится в письме

Подумай - это не больно
Сотрудники OpenAI и других компаний-разработчиков ИИ попросили возможность открыто высказываться о рисках технологии Группа бывших и нынешних сотрудников OpenAI, Google DeepMind и Anthropic подписали коллективное письмо с призывом создать каналы отчетности, чтобы свободно высказывать свои опасения по поводу развития ИИ-технологии — как внутри этих компаний, так и за их пределами. Подписи поставили 13 человек, семь из которых указали свои имена. Эксперты перечислили различные виды угроз, от распространения дезинформации до исчезновения человечества вследствие потери контроля над автономными системами ИИ. «Пока нет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники — одни из немногих, кто может заставить их отчитываться перед обществом», — говорится в письме. Сейчас сотрудники не могут открыто обсуждать вопросы, связанные с потенциальными угрозами ИИ человечеству, из-за наличия соглашений о конфиденциальности, недостаточной правовой защиты заявителя так называемый “whistleblower” , а также из страха ответных действий руководства. В OpenAI заявили, что согласны с необходимостью государственного регулирования и отметили важность «активных дискуссий». Призыв поддержали такие ведущие исследователи, как Йошуа Бенджио, Стюарт Рассел и Джеффри Хинтон, которых называют «крестными отцами ИИ». В прошлом году Хинтон уволился из Google, чтобы открыто предупреждать общество о рисках, связанных с использованием искусственного интеллекта.


Бэкдор
Шокирующие инсайды о будущем ИИ от бывшего сотрудника OpenAI. Чувак опубликовал аж 165-страничный документ с точечными прогнозами, опираясь на свой опыт и понимание внутрянки в разработке ИИ. Пристегнитесь, за минуту пробежимся по самому важному. • Главное: AGI к 2027 году — это реальность. • AGI — это ключевой геополитический ресурс прямо сейчас. Забудьте про ядерное оружие — это прошлый век. Любая страна пойдёт на всё, чтобы получить AGI первой, как в своё время атомную бомбу. • Для создания AGI придётся собрать единый вычислительный кластер за триллион долларов. Похожий уже строит Microsoft для OpenAI. • Эта махина будет потреблять электроэнергии больше, чем вырабатывает все США. • Деньги на AGI придут из бигтеха — уже сегодня Nvidia, Microsoft, Amazon и Google закладывают расходы в 100 млрд ! долларов за квартал только под ИИ. • К 2030 году в ИИ ежегодно будут вкладывать по 8 трлн долларов. • Если к этому моменту вам кажется, что перед вами бред — это не так. Сопоставимые расходы и глобальные изменения происходили во время Манхеттенского проекта и Промышленной революции. • Финал, сбивающий с ног: AGI — только начало. После его создания наступит практически мгновенный переход к ASI сверхинтеллекту . AGI будет так умён, что доучит себя сам и это произойдёт очень быстро. Жизнь на наших глазах превращается в научную фантастику. Бэкдор


Комсомольская правда: KP.RU
В OpenAI предупредили, что ИИ может привести к "вымиранию человечества" Группа из действующих и бывших сотрудников компаний Кремниевой долины опубликовала открытое письмо, в котором заявила, что без усиления дополнительных мер безопасности, искусственный интеллект несет угрозу для жизни человечества, пишет Independent. "Риски варьируются от дальнейшего усиления существующего неравенства до манипуляций и дезинформации, до потери контроля над автономными системами искусственного интеллекта, что потенциально может привести к исчезновению человечества", - говорится в совместном заявлении. В инициативную группу вошли 13 сотрудники OpenAI, Anthropic и DeepMind от Google. Они заявили, что ведущие исследователи в области ИИ нуждаются в большей защите для того, чтобы они могли выступать с критикой новых разработок, а также быть в курсе запроса от общества и политиков по поводу развития инноваций в отрасли.


The Bell
Сотрудники OpenAI и других компаний-разработчиков ИИ попросили возможность открыто высказываться о рисках технологии НАСТОЯЩИЙ МАТЕРИАЛ ИНФОРМАЦИЯ ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ THE BELL ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА THE BELL. 18+ Группа бывших и нынешних сотрудников OpenAI, Google DeepMind и Anthropic подписали коллективное письмо с призывом создать каналы отчетности, чтобы свободно высказывать свои опасения по поводу развития ИИ-технологии — как внутри этих компаний, так и за их пределами. Подписи поставили 13 человек, семь из которых указали свои имена. Эксперты перечислили различные виды угроз, от распространения дезинформации до исчезновения человечества вследствие потери контроля над автономными системами ИИ. «Пока нет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники — одни из немногих, кто может заставить их отчитываться перед обществом», — говорится в письме. Сейчас сотрудники не могут открыто обсуждать вопросы, связанные с потенциальными угрозами ИИ человечеству, из-за наличия соглашений о конфиденциальности, недостаточной правовой защиты заявителя так называемый “whistleblower” , а также из страха ответных действий руководства. В OpenAI заявили, что согласны с необходимостью государственного регулирования и отметили важность «активных дискуссий». Призыв поддержали такие ведущие исследователи, как Йошуа Бенджио, Стюарт Рассел и Джеффри Хинтон, которых называют «крестными отцами ИИ». В прошлом году Хинтон уволился из Google, чтобы открыто предупреждать общество о рисках, связанных с использованием искусственного интеллекта. Узнайте больше В апреле Стэнфордский университет выпустил ежегодный доклад, посвященный ИИ-индустрии. Этот отчет — седьмой по счету. И выпущен он в момент, когда искусственный интеллект начал оказывать по-настоящему серьезное влияние и на экономику, и на общество. Главное из доклада мы собрали здесь.

BFM
Сотрудники OpenAI хотят получить защиту, чтобы высказываться о «серьезных рисках» искусственного интеллекта, пишет Bloomberg. Нынешние и бывшие сотрудники OpenAI и Google DeepMind утверждают, что «широкие соглашения о конфиденциальности не позволяют нам высказывать свои опасения». Пока не существует эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники — одни из немногих, кто может призвать их к ответу перед общественностью, отмечает Bloomberg.


Gershuni e/acc
Сегодня твиттер взорвался. Экс-сотрудник OpenAI из команды Superalignment опубликовал 165-страничный документ о будущем ИИ. Там много деталей, фактов, индукции и вполне разумных прогнозов, поэтому прежде чем строчить гневные и безумные комментарии крайне советую прочитать сам документ. - AGI к 2027 году более чем вероятен. - После AGI переход к ASI сверхинтеллекту за счет самообучения будет очень быстрым, почти мгновенным - AGI — это самый существенный геополитический ресурс, куда важнее, чем ядерное оружение и страны пойдут на многое, чтобы получить его первым. В статье приводятся примеры того как китайцы шпионят за ИИ-компаниями в США. - сегодня большой дата-центр это единицы или десятки мегаватт, но с ИИ потребность вырастет на, как минимум, 4 порядка x 10,000 - мы увидим единый вычислительный кластер стоимостью в триллион долларов в течении пяти лет. самая рациональная инвестиция со стороны state actors и big tech — это compute, атомная энергия и инфраструктура для первых двух. - NVIDIA, MSFT, AMZN, GOOG уже сегодня планируют капекс в $100B в квартал на датацентры только для ИИ - к 2030 году ежегодно и глобально будет инвестироваться $8T в ИИ включая чипы и компьют , а так же только для ИИ будет потребляться больше чем 100% э/э генерируемой в США сегодня - к 2026 году выручка одной из big tech компаний от ИИ превысит $100B - это не безумно, и сравнимые расходы и сдвиги происходили во время Манхеттенского проекта или Промышленной революции и строительства ж/д Завтра продолжу со второй частью Если вам лень читать, то можете послушать вышедший сегодня 4-часовой подкаст о том же самом:


RT на русском
Сотрудники OpenAI и Google DeepMind заявили о серьёзных рисках ИИ и попросили защитить их от возможного возмездия компаний за критику. Об этом сообщает Bloomberg со ссылкой на открытое письмо 13 бывших и действующих работников американских корпораций. Авторы обращения призвали установить эффективный госнадзор за разработчиками: «Риски варьируются от дальнейшего углубления существующего неравенства до манипуляций и дезинформации до потери контроля над автономными системами ИИ, что потенциально может привести к исчезновению человечества». Экс-сотрудник OpenAI Дэниел Кокотайло обеспокоен, готовы ли компании к последствиям создания версии ИИ, превосходящей человека. По его мнению, вероятность достижения такого уровня к 2027 году составляет 50%. Сейчас ничто не ограничивает корпорации в этих разработках, и прозрачности в этом вопросе мало, отмечает Кокотайло. Компании при этом обязывают работников подписывать широкие договоры о неразглашении, указывает издание. #OpenAI #Google #ИИ RT на русском. Подпишись

Похожие новости



+3



+3



+3



+3



+9



+15

Сотрудники OpenAI реализовали акции на 6,6 миллиарда долларов
Экономика
1 день назад


+3
Google предотвращает первую атаку с использованием ИИ на двухфакторную аутентификацию
Технологии
1 день назад


+3
OpenAI запускает инициативу Daybreak для автоматизации защиты от уязвимостей
Технологии
1 день назад


+3
Thinking Machines анонсирует новые модели взаимодействия с ИИ для живого общения
Технологии
1 день назад


+3
SpaceX и Google обсуждают запуск орбитальных дата центров
Технологии
1 день назад


+9
Возможные ограничения GitHub в России: Госдума предупреждает о проблемах с доступом
Политика
1 день назад


+15