18 августа, 12:15

Anthropic обновляет политику использования Claude AI для повышения безопасности

Anthropic обновила политику использования чат-бота Claude AI   Новые правила строго запрещают применение Claude для разработки различных видов оружия, включая биологическое, ядерное и высокоэнергетические взрывчатые вещества.   Также добавлен раздел, касающийся недопустимости компрометации компьютерных или сетевых систем, что запрещает использование Claude для поиска уязвимостей и создания вредоносного ПО.    Кроме того, Anthropic смягчает свою политику в отношении политического контента.   Вместо запрета на создание любого контента, связанного с политическими кампаниями и лоббированием, Anthropic теперь будет запрещать использование Claude только в «случаях, которые вводят в заблуждение или нарушают демократические процессы, а также связаны с таргетированием избирателей и проведением кампаний».    Корпорация также сообщает, что с выходом модели Claude Opus 4 введена защита «AI Safety Level 3», которая предотвращает jailbreak и и разработки оружия. ================   News     Soft     Gear     Links
Чёрный Треугольник
Чёрный Треугольник
Anthropic обновила политику использования чат-бота Claude AI Новые правила строго запрещают применение Claude для разработки различных видов оружия, включая биологическое, ядерное и высокоэнергетические взрывчатые вещества. Также добавлен раздел, касающийся недопустимости компрометации компьютерных или сетевых систем, что запрещает использование Claude для поиска уязвимостей и создания вредоносного ПО. Кроме того, Anthropic смягчает свою политику в отношении политического контента. Вместо запрета на создание любого контента, связанного с политическими кампаниями и лоббированием, Anthropic теперь будет запрещать использование Claude только в «случаях, которые вводят в заблуждение или нарушают демократические процессы, а также связаны с таргетированием избирателей и проведением кампаний». Корпорация также сообщает, что с выходом модели Claude Opus 4 введена защита «AI Safety Level 3», которая предотвращает jailbreak и и разработки оружия. ================ News Soft Gear Links
Разработчики Anthropic научили чат-ботов Claude Opus 4 и 4.1 завершать диалог «в редких, экстремальных случаях систематически вредоносного или оскорбительного взаимодействия».   Однако это необходимо не для защиты пользователей, а для безопасности самой модели. Компания изучила «благополучие» нейросети — ее самооценку и поведенческие предпочтения.   Помимо «устойчивой неприязни к насилию» Claude продемонстрировал:  ⏺ явное предпочтение не заниматься задачами, которые могут навредить; ⏺ стресс при ответах на подобные запросы; ⏺ тенденцию к прекращению нежелательных разговоров при наличии возможности.  В Anthropic пообещали сохранять историю в случае остановки переписки.   Новости   AI   YouTube
ForkLog
ForkLog
Разработчики Anthropic научили чат-ботов Claude Opus 4 и 4.1 завершать диалог «в редких, экстремальных случаях систематически вредоносного или оскорбительного взаимодействия». Однако это необходимо не для защиты пользователей, а для безопасности самой модели. Компания изучила «благополучие» нейросети — ее самооценку и поведенческие предпочтения. Помимо «устойчивой неприязни к насилию» Claude продемонстрировал: ⏺ явное предпочтение не заниматься задачами, которые могут навредить; ⏺ стресс при ответах на подобные запросы; ⏺ тенденцию к прекращению нежелательных разговоров при наличии возможности. В Anthropic пообещали сохранять историю в случае остановки переписки. Новости AI YouTube
Anthropic научила модели Claude обрывать опасные диалоги для защиты не человека, а ИИ    Гопники-программисты из Anthropic добавили в модели Claude Opus 4 и 4.1 возможность завершать диалог в случаях крайне вредоносного или оскорбительного поведения пользователя. Компания объясняет это не защитой человека, а заботой о благополучии модели.    Ограничение действует в редких и крайних ситуациях, например при запросах крайне неэтичных данных или информации, способной привести к масштабному насилию. Claude проинструктирован не использовать эту возможность, если существует риск, что человек намерен причинить вред себе или другим.    Дожили, гопники-программисты теперь защищают ИИ от нас, вместо того чтобы перестать разрабатывать Скайнет несущий Судный День — степень дебилизма зашкаливает.   #ИИ #Anthropic #Дичь #Claude       Чат
ARCHiTECH 🔥 Новости ПК и игр
ARCHiTECH 🔥 Новости ПК и игр
Anthropic научила модели Claude обрывать опасные диалоги для защиты не человека, а ИИ Гопники-программисты из Anthropic добавили в модели Claude Opus 4 и 4.1 возможность завершать диалог в случаях крайне вредоносного или оскорбительного поведения пользователя. Компания объясняет это не защитой человека, а заботой о благополучии модели. Ограничение действует в редких и крайних ситуациях, например при запросах крайне неэтичных данных или информации, способной привести к масштабному насилию. Claude проинструктирован не использовать эту возможность, если существует риск, что человек намерен причинить вред себе или другим. Дожили, гопники-программисты теперь защищают ИИ от нас, вместо того чтобы перестать разрабатывать Скайнет несущий Судный День — степень дебилизма зашкаливает. #ИИ #Anthropic #Дичь #Claude Чат
Модели Claude от Anthropic теперь могут завершать разговоры с пользователями, которые пытаются заставить их генерировать вредоносный или оскорбительный контент.   Это нововведение направлено на повышение безопасности и этичности взаимодействия с ИИ.    AI OFFICIAL
PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
Модели Claude от Anthropic теперь могут завершать разговоры с пользователями, которые пытаются заставить их генерировать вредоносный или оскорбительный контент. Это нововведение направлено на повышение безопасности и этичности взаимодействия с ИИ. AI OFFICIAL
Разработчики Anthropic научили чат-ботов Claude Opus 4 и 4.1 завершать диалог «в редких, экстремальных случаях систематически вредоносного или оскорбительного взаимодействия».   Однако это необходимо не для защиты пользователей, а для безопасности самой модели. Компания изучила «благополучие» нейросети — ее самооценку и поведенческие предпочтения.   Помимо «устойчивой неприязни к насилию» Claude продемонстрировал:  ⏺ явное предпочтение не заниматься задачами, которые могут навредить; ⏺ стресс при ответах на подобные запросы; ⏺ тенденцию к прекращению нежелательных разговоров при наличии возможности.  В Anthropic пообещали сохранять историю в случае остановки переписки.   Новости   AI   YouTube
ForkLog FEED
ForkLog FEED
Разработчики Anthropic научили чат-ботов Claude Opus 4 и 4.1 завершать диалог «в редких, экстремальных случаях систематически вредоносного или оскорбительного взаимодействия». Однако это необходимо не для защиты пользователей, а для безопасности самой модели. Компания изучила «благополучие» нейросети — ее самооценку и поведенческие предпочтения. Помимо «устойчивой неприязни к насилию» Claude продемонстрировал: ⏺ явное предпочтение не заниматься задачами, которые могут навредить; ⏺ стресс при ответах на подобные запросы; ⏺ тенденцию к прекращению нежелательных разговоров при наличии возможности. В Anthropic пообещали сохранять историю в случае остановки переписки. Новости AI YouTube
Anthropic научила модели Claude обрывать опасные диалоги для защиты не человека, а ИИ  Anthropic добавила в модели Claude Opus 4 и 4.1 возможность завершать диалог в случаях крайне вредоносного или оскорбительного поведения пользователя. Компания объясняет это не защитой человека, а заботой о благополучии модели. В заявлении Anthropic подчеркивается, что речь не идет о наделении Claude сознанием или способностью испытывать страдания.  Читать далее
DNS_Club
DNS_Club
Anthropic научила модели Claude обрывать опасные диалоги для защиты не человека, а ИИ Anthropic добавила в модели Claude Opus 4 и 4.1 возможность завершать диалог в случаях крайне вредоносного или оскорбительного поведения пользователя. Компания объясняет это не защитой человека, а заботой о благополучии модели. В заявлении Anthropic подчеркивается, что речь не идет о наделении Claude сознанием или способностью испытывать страдания. Читать далее