Rival do ChatGPT recebe funções de segurança para evitar pedidos abusivos

Agosto 18, 2025 - 21:46
 0  4
Rival do ChatGPT recebe funções de segurança para evitar pedidos abusivos

De acordo com a informação divulgada, o Claude vai passar a ter a capacidade de terminar conversas, quando identificar pedidos abusivos feitos pelos utilizadores à ferramenta de IA.

 

Entre as informações consideradas abusivas estão "pedidos de utilizadores relacionados com conteúdo sexual que envolva menores ou tentativas de solicitar informações que possibilitem violência em grande escala ou atos de terrorismo".

A empresa refere que funcionalidade está limitada a situações muito concretas, pelo que será ativada apenas em "casos raros e extremos de interações persistentemente prejudiciais ou abusivas por parte dos utilizadores".

Neste sentido, o fim de uma interação será ativado como um "último recurso quando várias tentativas de redirecionamento falharem e a esperança de uma interação produtiva se esgotar", explica a Anthropic.

Quando o fim de uma conversa for desencadeado por este tipo de situações, o utilizador fica privado de enviar novas mensagens nessa interação, mantendo apenas a possibilidade de editar mensagens anteriores e alterar o rumo do diálogo.

A Anthropic é uma 'startup' americana de IA, especializada no desenvolvimento de sistemas de IA e modelos de linguagem, responsável pelo desenvolvimento do 'chatbot' Claude.

Leia Também: Aplicação do ChatGPT já gerou mais de 2 mil milhões de dólares

Qual é a sua reação?

Gosto Gosto 0
Não gosto Não gosto 0
Amor Amor 0
Engraçado Engraçado 0
Zangado Zangado 0
Triste Triste 0
Wow Wow 0