A Anthropic reconheceu que o Claude AI cometeu um erro de citação em documentos legais.

robot
Geração de resumo em curso

De acordo com a mensagem da Deep Tide TechFlow, em 16 de maio, o The Verge relatou que a Anthropic respondeu aos erros de citação causados por seu assistente de IA, Claude, em documentos legais, afirmando que se tratava de um "erro embaraçoso e não intencional", e não uma invenção deliberada. No processo de direitos autorais com a editora de música, documentos apresentados pela cientista de dados da Anthropic, Olivia Chen, em 30 de abril, continham citações errôneas, sendo acusadas pelos advogados do Universal Music Group (UMG) de serem "totalmente inventadas".

A advogada da Anthropic, Ivana Dukanovic, afirmou na resposta apresentada na quinta-feira que, embora a fonte em questão realmente exista, Claude adicionou erros ao título e às informações do autor ao formatar as citações legais. Embora a empresa tenha realizado uma "verificação manual de citações" e corrigido os números de volume e as páginas incorretas, esses erros de redação não foram detectados.

Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)