Fonte: Entertainment Capital, Autor: Fu Mengzhen, Editor: James
Alguns dias atrás, alguém descobriu que SparkDesk, a plataforma de experiência oficial do "Modelo Cognitivo Spark" de Xunfei, tem uma estipulação intrigante no contrato do usuário:
De acordo com uma pesquisa da Entertainment Capital, as regras de experiência do usuário do SparkDesk possuem cláusulas com implicações relevantes. A esse respeito, perguntamos sobre o contrato do usuário, regras de teste e cláusulas de privacidade de vários modelos de produtos em grande escala na China que foram testados publicamente. Colete suas informações pessoais encontradas em canais públicos e redes sociais ”e muitos outros regulamentos irracionais.
Então, queremos dizer a você neste artigo:
Quais métodos de uso de grandes modelos de IA que você considera completamente razoáveis estão realmente "violando o contrato do usuário"?
Como sua entrada de informações privadas ou confidenciais no modelo grande será tratada?
O que significa quando você corre o risco de violar os termos de uso de grandes modelos de IA?
Se você não for cuidadoso, estará violando o acordo
Em meados de março, Baidu Wenxin abriu testes de produtos. Em 7 de abril, "Tongyi Qianwen" de Ali lançou testes internos. Em 17 de abril, "Tiangong" de Kunlun Wanwei lançou testes internos. Em 24 de abril, HKUST News Fei "Xinghuo Cognitive Model" começou testes internos.
Todos eles fornecem aos usuários uma "regra de teste" relativamente curta para substituir o longo contrato do usuário no passado, como "Regras de teste Wen Xin Yi Yan", e os usuários devem ler e concordar com ela antes de usá-la.
Em geral, essas regras de teste dizem apenas três coisas:
Por favor, não publique conteúdo ilegal;
Ainda somos imaturos e cometeremos erros, por favor, não use os resultados gerados diretamente para ocasiões sérias;
Por favor, dê-nos o máximo de feedback possível.
No entanto, o SparkDesk de Xunfei também estipula que você não pode tornar as coisas que ele gera, mesmo incluindo sua interface, públicas de qualquer forma. Ou seja, no momento em que você tira uma captura de tela com alguém do grupo do WeChat para mostrar sua qualificação para o teste interno, você já violou os termos deles. A Entertainment Capital Theory encontrou o texto original correspondente em "SparkDesk User Experience Rules":
*Dado que o serviço SparkDesk está atualmente em estágio de experiência, as informações técnicas do SparkDesk sobre programas de computador, códigos, dados técnicos, sistemas e software aplicativo, bancos de dados, algoritmos, interfaces interativas (incluindo conteúdo de entrada e saída), design de produto, lançamento de produto e informações de planejamento, etc. ou informações comerciais são classificadas como informações confidenciais. *
*Você entende e concorda em manter as informações confidenciais acima mencionadas estritamente confidenciais! Sem permissão, você não pode divulgar, usar ou permitir que outros usem as informações confidenciais acima mencionadas de qualquer forma (incluindo capturas de tela, impressão, disquetes, CDs, discos rígidos, e-mails, redes, comunicações sem fio, etc.), ou enviá-los para sites, Weibo, grupos ou momentos do WeChat, contas de mídia própria e outros ambientes de rede. *
*Se você violar as obrigações de confidencialidade estipuladas nestas regras, temos o direito de perseguir sua responsabilidade legal de acordo com a lei. *
Obviamente, "interface interativa (incluindo conteúdo de entrada e saída)" abrange o que inserimos em sua caixa de diálogo ao usar o SparkDesk e os resultados que ele retorna para nós. E muitas vezes usaremos capturas de tela do WeChat para enviar aos amigos do grupo, o que é um movimento perfeitamente natural.
E digite o nome do SparkDesk e você descobrirá que existem muitos autores de contas oficiais. Primeiro, você viu esta seção que proíbe capturas de tela ao se registrar. Depois de clicar em concordar, você começará a tirar capturas de tela imediatamente. Mesmo que a marca d'água carregue seu número de celular , você não terá medo. .
Estamos muito curiosos sobre como tais regulamentos, que deveriam ter sido previstos como impossíveis de serem implementados quando foram formulados, foram colocados em prática.
**Posso contar à modelo grande meu segredinho? **
Além de obter informações da rede pública, o modelo grande também retém os dados de bate-papo dos usuários e para treinamento, portanto, as informações pessoais dos usuários ou os segredos comerciais das empresas também correm o risco de serem expostos ao público. Anteriormente, a divisão de semicondutores da Samsung Electronics teve três incidentes de inserção de segredos comerciais no ChatGPT.
O ChatGPT também vazou as informações pessoais de alguns assinantes do ChatGPT Plus, o que viola a política de privacidade GDPR da UE.
Então, quais informações os grandes modelos domésticos declaram no contrato que coletam dos usuários?
Como o ChatGPT, etc., os grandes modelos domésticos de IA coletarão o histórico de perguntas e respostas de usuários e modelos. Se você clicar em "gostar" ou "não gostar" ao lado de uma resposta, essas informações adicionais de feedback também serão coletadas.
Essa coleção de dados de perguntas e respostas é usada principalmente para otimizar o produto. No entanto, o Baidu Wenxin estipulou que essas informações também podem ser usadas pelo Baidu para fins comerciais.
"Regras de proteção de informações pessoais Wenxinyiyan (versão de teste)" menciona:
*Depois de desidentificarmos as informações pessoais por meios técnicos, as informações desidentificadas não poderão identificar o sujeito. Por favor, entenda e concorde que, neste caso, temos o direito de usar informações não identificadas; na premissa de não divulgar suas informações pessoais, temos o direito de analisar o banco de dados de testadores e fazer uso comercial dele. *
*Quando exibimos suas informações pessoais, usaremos métodos que incluem substituição de conteúdo e anonimização para dessensibilizar e exibir suas informações para proteger a segurança de suas informações. *
Na verdade, o Baidu já coletou "imagens interessantes" geradas por alguns usuários usando Wenxin Yiyan, como "fatias de pulmão de marido e mulher" e "peixe esquilo mandarim" e outros registros de bate-papo com textos irrelevantes, e os publicou na conta de vídeo do Baidu e outros canais de divulgação.
Usar um modelo grande como ferramenta de aconselhamento é uma das coisas que as pessoas gostam de fazer depois de obtê-lo. Os usuários usam o modelo grande como um buraco na árvore e confiam todos os seus assuntos privados obscuros a esse sacerdote cibernético.
No entanto, se o desenvolvedor do grande modelo ou a mídia de notícias usar seu aconselhamento como um caso em que muitas de suas próprias informações pessoais são misturadas para serem reconhecidas, isso pode causar novos problemas a você.
Essa possibilidade também afeta o uso direto das versões gerais desses grandes modelos para aconselhamento psicológico. No entanto, a versão comercial que os utiliza como API pode perceber a confidencialidade dos dados do usuário, por isso espero que todos pensem bem antes de se deixar levar.
Os vários grandes modelos domésticos que nos preocupam geralmente mencionam que usarão "dessensibilização" para processar as informações privadas de todos, como "sob a premissa de que foi desidentificado e não pode reidentificar um indivíduo específico" e outras expressões. Mas, de um modo geral, quanto menos informações a plataforma coletar, melhor. Essa é a maior proteção para sua privacidade.
A situação real é oposta: como os usuários estão esperando na fila para obter lugares de experiência, esses produtos modelo em grande escala tenderão a fornecer aos usuários que enviarem suas informações de identidade com mais detalhes ao revisar os aplicativos de avaliação.
Os usuários podem dar feedback sobre se estão satisfeitos com as respostas geradas pela IA por meio de gostos e desgostos. Os desenvolvedores também esperam que alguns exemplos de geração ruim sejam os primeiros a serem descobertos e relatados na plataforma. No entanto, o que é "lamentável" para os desenvolvedores é que, para muitos problemas estranhos, os usuários não dão feedback interno obedientemente, mas os enviam diretamente para redes sociais como Xiaohongshu e Weibo.
Neste momento, descobrimos que alguns modelos mencionaram na política de privacidade que, se necessário, eles também saberão quem é uma determinada captura de tela de seus perfis de rede social:
*Conforme permitido por lei, também obteremos informações sobre você de fontes públicas ou comerciais, incluindo serviços de redes sociais de terceiros. *
Os usuários usam o modelo grande como um buraco na árvore e confiam todos os seus assuntos privados obscuros a esse sacerdote cibernético. Usar o modelo grande como ferramenta de aconselhamento psicológico é uma das coisas que as pessoas gostam de fazer depois de obtê-lo.
No entanto, se o desenvolvedor do grande modelo, ou a mídia de notícias, der um exemplo de seu aconselhamento com o modelo, que contém muitas informações pessoais sobre você para ser identificável, isso pode lhe dar uma sensação de perda. .
Pode ser por isso que alguns aplicativos de shell GPT (alguns chamados de "AI Buddha" ou algo assim) que se concentram no aconselhamento psicológico foram removidos das prateleiras. Então, espero que todos pensem nisso antes de deixar ir, ou se você vir uma captura de tela, não admita que é disso que você está falando, tudo bem.
Como dizem os termos de Tongyi Qianwen:
*Se você se recusar a coletar e processar as informações acima mencionadas, insira as informações de texto com cuidado. Depois de participar da experiência de teste, será considerado que você aceitou os termos acima. *
**Se eu quebrar as regras, qual será a penalidade? **
Como todos sabemos, o conteúdo gerado pela IA foi considerado como não sujeito à proteção de direitos autorais nos julgamentos legais de vários países por muitos anos, ou seja, qualquer pessoa pode usá-lo e modificá-lo. A jurisprudência em vários países acredita principalmente que a IA não é um ser humano, portanto não é detentora de direitos de propriedade intelectual.
Muitos usuários naturalmente pensam que o conteúdo gerado na plataforma do grande modelo pertence a eles, ou pode ser acessado e modificado à vontade. No entanto, os termos e condições de vários modelos domésticos de grande escala que verificamos não são todos estipulados dessa maneira.
Já vimos a "Cláusula de Confidencialidade" de Xunfei Spark. E Kunlun Wanwei Tiangong (autoproclamado "singularidade" nos termos) não permite que os usuários usem o conteúdo gerado comercialmente. Claro, pode haver considerações para evitar problemas por trás disso. Afinal, os direitos autorais do próprio conjunto de dados podem também ser vago.
"A menos que autorizado de outra forma por escrito pela Singularity, você só pode usar os Serviços Tiangong para fins não comerciais. Você promete não reproduzir, copiar, vender ou revender qualquer parte dos Serviços Tiangong ou o uso ou aquisição dos Serviços Tiangong ou para publicidade ou outros fins comerciais."
Alibaba Tongyi Qianwen atribui o conteúdo pertencente ao usuário ao usuário. Baidu Wenxin Yiyan não fez regulamentos claros a esse respeito, então você deve estar livre para usá-los.
Em contraste, a OpenAI incorpora uma espécie de cordialidade para com os clientes: ela atribui expressamente aos clientes todos os direitos, títulos e interesses no conteúdo gerado pelo usuário.
Nesse ponto, surge a dúvida - se eu realmente usar os resultados gerados da plataforma que não é permitida para uso comercial, serei preso?
Na verdade, os usuários beta internos estão se inscrevendo ativamente para a qualificação de teste de modelos domésticos de grande escala, é claro que nem tudo por diversão. O conteúdo que eles produzem deve ser usado em seu próprio trabalho tanto quanto possível para melhorar verdadeiramente a eficiência. Não parece razoável que a plataforma proíba a comercialização do conteúdo gerado, mas considerando que os desenvolvedores podem ter planos de comercializar a API, geralmente podemos entender por que existe tal regulamentação.
O único problema é, assim como a Mita Technology: como a "Gramática da China" pode lidar com o "golpe de redução de dimensionalidade" na era GPT, como Wang Yiwei, COO da Mita Technology, disse à Entertainment Capital, atualmente não há ferramenta no market Pode realmente detectar quais parágrafos são gerados pela IA. "Se uma empresa disser que vou treinar especificamente para um determinado modelo grande, pode ser possível detectar vestígios da produção desse modelo, mas se ela conseguir detectar todos os resultados gerados por esses modelos grandes no mercado, então é impossível ."
Além disso, para atingir o objetivo de rastreabilidade tanto quanto possível, esses grandes modelos domésticos adotaram o método de adicionar marcas d'água na interface para reter as informações pessoais do usuário. E descobrimos que alguns plug-ins de navegador podem remover especificamente a marca d'água na interface desses modelos grandes.
O efeito é bastante perfeito.
Por fim, fica outra questão: Se sentir que existem algumas "cláusulas overlord" nestes termos, ou outros motivos, pretende cancelar a sua conta, será difícil?
Para Xunfei Xinghuo e Kunlun Wanwei Tiangong, as contas ou passes desses dois não virão com alguns produtos ou serviços particularmente importantes, por isso é conveniente (algumas pessoas podem ser usuários pagos de Xunfei Dictation, etc., ou ao usar a API de Xunfei, atenção especial deve ser dada neste momento).
No entanto, se você deseja desativar Tongyi Qianwen, isso significa excluir sua conta do Alibaba Cloud; se você deseja desativar Wenxinyiyan, isso significa excluir sua conta Baidu. Esses dois são muito mais problemáticos.
O Baidu fornece aos usuários do Wenxin Yiyan várias maneiras de acessar, processar e solicitar a exclusão de dados pessoais sem excluir suas contas. Necessidades personalizadas podem ser enviadas a eles para apelação. No entanto, também mencionou que limpar os registros de diálogo na interface de diálogo não significa eliminar imediatamente o cache desses registros no servidor:
Quando você exclui informações de nosso serviço, não podemos excluir as informações correspondentes do sistema de backup imediatamente, mas excluiremos as informações quando o backup for atualizado.
Os termos de Tongyi Qianwen indicaram que "você pode fazer login no centro de contas e solicitar o cancelamento da conta para excluir todas as suas informações". do Alibaba Cloud. Isso significa que cancelar sua conta significa cancelar sua conta do Alibaba Cloud.
Em suma, antes que esses serviços possam ser separados de outros negócios vinculados à conta e cancelados separadamente, é recomendável que você use sua conta usada com menos frequência para solicitar o registro desses modelos grandes, se realmente se importar.
Vejamos o OpenAI e descobriremos que os termos para limpar os dados do usuário são muito mais amigáveis, mas também encontramos alguns termos muito no estilo americano, como a chamada "lista de entidades"
Escreva no final
Quando perguntamos a esses grandes modelos sobre algumas disposições "esmagadoras" no contrato do usuário, o que realmente estamos perguntando é: onde está o limite entre os direitos e obrigações da plataforma e dos usuários?
Os desenvolvedores de modelos em larga escala têm uma gama relativamente ampla de coleta de dados do usuário. Esses dados podem fornecer uma base para grandes modelos para melhorar os produtos, mas também permitem que os usuários assumam muitos riscos. Da mesma forma, eles são muito conservadores em sua responsabilidade limitada e lembram repetidamente aos usuários que, como uma função experimental, o modelo grande não é responsável por quaisquer problemas ou perdas que ocorram após o uso pelos usuários.
"Não existe 100% de segurança de dados". Grandes modelos de IA, como outros produtos da Internet, apresentam riscos potenciais no processo de transmissão, armazenamento e processamento de dados. Isso não está nem entrando na maneira potencialmente vazada que o ChatGPT aprende a partir do corpus de entrada.
Embora os desenvolvedores afirmem “dessensibilizar” as informações do usuário, os usuários ainda devem verificar regularmente suas configurações de privacidade nessas plataformas e prestar atenção oportuna a quaisquer notificações emitidas pelas plataformas em formas incertas, como letras pequenas e janelas pop-up.
O acordo do usuário é uma forma comum para as empresas concluírem contratos com os usuários. Após a assinatura do contrato, o usuário não poderá solicitar o cancelamento do contrato com base em "não li" ou "não sabia". Para proteger ao máximo seus direitos legais e a segurança das informações pessoais, todos os usuários precisam ler atentamente o contrato do usuário, a política de privacidade etc. e, em seguida, clicar no atraente "Concordo e continuar".
Yuval Harari disse uma vez em "Uma Breve História da Humanidade": "As pessoas podem sacrificar um pouco de privacidade por conveniência." De fato, uma das tendências no desenvolvimento de grandes modelos é melhorar a conveniência da vida humana.Neste processo, parece inevitável que os usuários "transferam direitos de privacidade".
No entanto, ao ler atentamente os acordos e termos que muitas vezes são ignorados pelas pessoas, tentamos chamar a atenção para alguns lugares que podem não ser razoáveis e, assim, apelar para melhorias adicionais na plataforma.
Também esperamos que a proteção dos direitos e interesses dos usuários de modelos nacionais de grande escala possa ser sincronizada com o progresso do desenvolvimento dos modelos e que eles possam fazer escolhas ao coletar informações do usuário, provenientes de interesses de longo prazo e agir com prudência.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
Depois de ler os acordos de uso de 4 grandes modelos domésticos, me sinto mal
Fonte: Entertainment Capital, Autor: Fu Mengzhen, Editor: James
Alguns dias atrás, alguém descobriu que SparkDesk, a plataforma de experiência oficial do "Modelo Cognitivo Spark" de Xunfei, tem uma estipulação intrigante no contrato do usuário:
Então, queremos dizer a você neste artigo:
Quais métodos de uso de grandes modelos de IA que você considera completamente razoáveis estão realmente "violando o contrato do usuário"?
Como sua entrada de informações privadas ou confidenciais no modelo grande será tratada?
O que significa quando você corre o risco de violar os termos de uso de grandes modelos de IA?
Se você não for cuidadoso, estará violando o acordo
Em meados de março, Baidu Wenxin abriu testes de produtos. Em 7 de abril, "Tongyi Qianwen" de Ali lançou testes internos. Em 17 de abril, "Tiangong" de Kunlun Wanwei lançou testes internos. Em 24 de abril, HKUST News Fei "Xinghuo Cognitive Model" começou testes internos.
Todos eles fornecem aos usuários uma "regra de teste" relativamente curta para substituir o longo contrato do usuário no passado, como "Regras de teste Wen Xin Yi Yan", e os usuários devem ler e concordar com ela antes de usá-la.
Em geral, essas regras de teste dizem apenas três coisas:
Por favor, não publique conteúdo ilegal;
Ainda somos imaturos e cometeremos erros, por favor, não use os resultados gerados diretamente para ocasiões sérias;
Por favor, dê-nos o máximo de feedback possível.
No entanto, o SparkDesk de Xunfei também estipula que você não pode tornar as coisas que ele gera, mesmo incluindo sua interface, públicas de qualquer forma. Ou seja, no momento em que você tira uma captura de tela com alguém do grupo do WeChat para mostrar sua qualificação para o teste interno, você já violou os termos deles. A Entertainment Capital Theory encontrou o texto original correspondente em "SparkDesk User Experience Rules":
*Dado que o serviço SparkDesk está atualmente em estágio de experiência, as informações técnicas do SparkDesk sobre programas de computador, códigos, dados técnicos, sistemas e software aplicativo, bancos de dados, algoritmos, interfaces interativas (incluindo conteúdo de entrada e saída), design de produto, lançamento de produto e informações de planejamento, etc. ou informações comerciais são classificadas como informações confidenciais. *
*Você entende e concorda em manter as informações confidenciais acima mencionadas estritamente confidenciais! Sem permissão, você não pode divulgar, usar ou permitir que outros usem as informações confidenciais acima mencionadas de qualquer forma (incluindo capturas de tela, impressão, disquetes, CDs, discos rígidos, e-mails, redes, comunicações sem fio, etc.), ou enviá-los para sites, Weibo, grupos ou momentos do WeChat, contas de mídia própria e outros ambientes de rede. *
*Se você violar as obrigações de confidencialidade estipuladas nestas regras, temos o direito de perseguir sua responsabilidade legal de acordo com a lei. *
Obviamente, "interface interativa (incluindo conteúdo de entrada e saída)" abrange o que inserimos em sua caixa de diálogo ao usar o SparkDesk e os resultados que ele retorna para nós. E muitas vezes usaremos capturas de tela do WeChat para enviar aos amigos do grupo, o que é um movimento perfeitamente natural.
E digite o nome do SparkDesk e você descobrirá que existem muitos autores de contas oficiais. Primeiro, você viu esta seção que proíbe capturas de tela ao se registrar. Depois de clicar em concordar, você começará a tirar capturas de tela imediatamente. Mesmo que a marca d'água carregue seu número de celular , você não terá medo. . Estamos muito curiosos sobre como tais regulamentos, que deveriam ter sido previstos como impossíveis de serem implementados quando foram formulados, foram colocados em prática.
**Posso contar à modelo grande meu segredinho? **
Além de obter informações da rede pública, o modelo grande também retém os dados de bate-papo dos usuários e para treinamento, portanto, as informações pessoais dos usuários ou os segredos comerciais das empresas também correm o risco de serem expostos ao público. Anteriormente, a divisão de semicondutores da Samsung Electronics teve três incidentes de inserção de segredos comerciais no ChatGPT.
O ChatGPT também vazou as informações pessoais de alguns assinantes do ChatGPT Plus, o que viola a política de privacidade GDPR da UE. Então, quais informações os grandes modelos domésticos declaram no contrato que coletam dos usuários?
Como o ChatGPT, etc., os grandes modelos domésticos de IA coletarão o histórico de perguntas e respostas de usuários e modelos. Se você clicar em "gostar" ou "não gostar" ao lado de uma resposta, essas informações adicionais de feedback também serão coletadas.
Essa coleção de dados de perguntas e respostas é usada principalmente para otimizar o produto. No entanto, o Baidu Wenxin estipulou que essas informações também podem ser usadas pelo Baidu para fins comerciais. "Regras de proteção de informações pessoais Wenxinyiyan (versão de teste)" menciona:
*Depois de desidentificarmos as informações pessoais por meios técnicos, as informações desidentificadas não poderão identificar o sujeito. Por favor, entenda e concorde que, neste caso, temos o direito de usar informações não identificadas; na premissa de não divulgar suas informações pessoais, temos o direito de analisar o banco de dados de testadores e fazer uso comercial dele. *
*Quando exibimos suas informações pessoais, usaremos métodos que incluem substituição de conteúdo e anonimização para dessensibilizar e exibir suas informações para proteger a segurança de suas informações. *
Na verdade, o Baidu já coletou "imagens interessantes" geradas por alguns usuários usando Wenxin Yiyan, como "fatias de pulmão de marido e mulher" e "peixe esquilo mandarim" e outros registros de bate-papo com textos irrelevantes, e os publicou na conta de vídeo do Baidu e outros canais de divulgação.
No entanto, se o desenvolvedor do grande modelo ou a mídia de notícias usar seu aconselhamento como um caso em que muitas de suas próprias informações pessoais são misturadas para serem reconhecidas, isso pode causar novos problemas a você.
Essa possibilidade também afeta o uso direto das versões gerais desses grandes modelos para aconselhamento psicológico. No entanto, a versão comercial que os utiliza como API pode perceber a confidencialidade dos dados do usuário, por isso espero que todos pensem bem antes de se deixar levar.
Os vários grandes modelos domésticos que nos preocupam geralmente mencionam que usarão "dessensibilização" para processar as informações privadas de todos, como "sob a premissa de que foi desidentificado e não pode reidentificar um indivíduo específico" e outras expressões. Mas, de um modo geral, quanto menos informações a plataforma coletar, melhor. Essa é a maior proteção para sua privacidade.
A situação real é oposta: como os usuários estão esperando na fila para obter lugares de experiência, esses produtos modelo em grande escala tenderão a fornecer aos usuários que enviarem suas informações de identidade com mais detalhes ao revisar os aplicativos de avaliação.
Os usuários podem dar feedback sobre se estão satisfeitos com as respostas geradas pela IA por meio de gostos e desgostos. Os desenvolvedores também esperam que alguns exemplos de geração ruim sejam os primeiros a serem descobertos e relatados na plataforma. No entanto, o que é "lamentável" para os desenvolvedores é que, para muitos problemas estranhos, os usuários não dão feedback interno obedientemente, mas os enviam diretamente para redes sociais como Xiaohongshu e Weibo.
Neste momento, descobrimos que alguns modelos mencionaram na política de privacidade que, se necessário, eles também saberão quem é uma determinada captura de tela de seus perfis de rede social:
*Conforme permitido por lei, também obteremos informações sobre você de fontes públicas ou comerciais, incluindo serviços de redes sociais de terceiros. *
Os usuários usam o modelo grande como um buraco na árvore e confiam todos os seus assuntos privados obscuros a esse sacerdote cibernético. Usar o modelo grande como ferramenta de aconselhamento psicológico é uma das coisas que as pessoas gostam de fazer depois de obtê-lo.
No entanto, se o desenvolvedor do grande modelo, ou a mídia de notícias, der um exemplo de seu aconselhamento com o modelo, que contém muitas informações pessoais sobre você para ser identificável, isso pode lhe dar uma sensação de perda. .
Pode ser por isso que alguns aplicativos de shell GPT (alguns chamados de "AI Buddha" ou algo assim) que se concentram no aconselhamento psicológico foram removidos das prateleiras. Então, espero que todos pensem nisso antes de deixar ir, ou se você vir uma captura de tela, não admita que é disso que você está falando, tudo bem.
Como dizem os termos de Tongyi Qianwen:
*Se você se recusar a coletar e processar as informações acima mencionadas, insira as informações de texto com cuidado. Depois de participar da experiência de teste, será considerado que você aceitou os termos acima. *
**Se eu quebrar as regras, qual será a penalidade? **
Como todos sabemos, o conteúdo gerado pela IA foi considerado como não sujeito à proteção de direitos autorais nos julgamentos legais de vários países por muitos anos, ou seja, qualquer pessoa pode usá-lo e modificá-lo. A jurisprudência em vários países acredita principalmente que a IA não é um ser humano, portanto não é detentora de direitos de propriedade intelectual.
Muitos usuários naturalmente pensam que o conteúdo gerado na plataforma do grande modelo pertence a eles, ou pode ser acessado e modificado à vontade. No entanto, os termos e condições de vários modelos domésticos de grande escala que verificamos não são todos estipulados dessa maneira.
Já vimos a "Cláusula de Confidencialidade" de Xunfei Spark. E Kunlun Wanwei Tiangong (autoproclamado "singularidade" nos termos) não permite que os usuários usem o conteúdo gerado comercialmente. Claro, pode haver considerações para evitar problemas por trás disso. Afinal, os direitos autorais do próprio conjunto de dados podem também ser vago.
"A menos que autorizado de outra forma por escrito pela Singularity, você só pode usar os Serviços Tiangong para fins não comerciais. Você promete não reproduzir, copiar, vender ou revender qualquer parte dos Serviços Tiangong ou o uso ou aquisição dos Serviços Tiangong ou para publicidade ou outros fins comerciais."
Alibaba Tongyi Qianwen atribui o conteúdo pertencente ao usuário ao usuário. Baidu Wenxin Yiyan não fez regulamentos claros a esse respeito, então você deve estar livre para usá-los.
Em contraste, a OpenAI incorpora uma espécie de cordialidade para com os clientes: ela atribui expressamente aos clientes todos os direitos, títulos e interesses no conteúdo gerado pelo usuário.
Na verdade, os usuários beta internos estão se inscrevendo ativamente para a qualificação de teste de modelos domésticos de grande escala, é claro que nem tudo por diversão. O conteúdo que eles produzem deve ser usado em seu próprio trabalho tanto quanto possível para melhorar verdadeiramente a eficiência. Não parece razoável que a plataforma proíba a comercialização do conteúdo gerado, mas considerando que os desenvolvedores podem ter planos de comercializar a API, geralmente podemos entender por que existe tal regulamentação.
O único problema é, assim como a Mita Technology: como a "Gramática da China" pode lidar com o "golpe de redução de dimensionalidade" na era GPT, como Wang Yiwei, COO da Mita Technology, disse à Entertainment Capital, atualmente não há ferramenta no market Pode realmente detectar quais parágrafos são gerados pela IA. "Se uma empresa disser que vou treinar especificamente para um determinado modelo grande, pode ser possível detectar vestígios da produção desse modelo, mas se ela conseguir detectar todos os resultados gerados por esses modelos grandes no mercado, então é impossível ."
Além disso, para atingir o objetivo de rastreabilidade tanto quanto possível, esses grandes modelos domésticos adotaram o método de adicionar marcas d'água na interface para reter as informações pessoais do usuário. E descobrimos que alguns plug-ins de navegador podem remover especificamente a marca d'água na interface desses modelos grandes.
Por fim, fica outra questão: Se sentir que existem algumas "cláusulas overlord" nestes termos, ou outros motivos, pretende cancelar a sua conta, será difícil?
Para Xunfei Xinghuo e Kunlun Wanwei Tiangong, as contas ou passes desses dois não virão com alguns produtos ou serviços particularmente importantes, por isso é conveniente (algumas pessoas podem ser usuários pagos de Xunfei Dictation, etc., ou ao usar a API de Xunfei, atenção especial deve ser dada neste momento).
No entanto, se você deseja desativar Tongyi Qianwen, isso significa excluir sua conta do Alibaba Cloud; se você deseja desativar Wenxinyiyan, isso significa excluir sua conta Baidu. Esses dois são muito mais problemáticos.
O Baidu fornece aos usuários do Wenxin Yiyan várias maneiras de acessar, processar e solicitar a exclusão de dados pessoais sem excluir suas contas. Necessidades personalizadas podem ser enviadas a eles para apelação. No entanto, também mencionou que limpar os registros de diálogo na interface de diálogo não significa eliminar imediatamente o cache desses registros no servidor:
Quando você exclui informações de nosso serviço, não podemos excluir as informações correspondentes do sistema de backup imediatamente, mas excluiremos as informações quando o backup for atualizado.
Os termos de Tongyi Qianwen indicaram que "você pode fazer login no centro de contas e solicitar o cancelamento da conta para excluir todas as suas informações". do Alibaba Cloud. Isso significa que cancelar sua conta significa cancelar sua conta do Alibaba Cloud.
Em suma, antes que esses serviços possam ser separados de outros negócios vinculados à conta e cancelados separadamente, é recomendável que você use sua conta usada com menos frequência para solicitar o registro desses modelos grandes, se realmente se importar.
Vejamos o OpenAI e descobriremos que os termos para limpar os dados do usuário são muito mais amigáveis, mas também encontramos alguns termos muito no estilo americano, como a chamada "lista de entidades"
Escreva no final
Quando perguntamos a esses grandes modelos sobre algumas disposições "esmagadoras" no contrato do usuário, o que realmente estamos perguntando é: onde está o limite entre os direitos e obrigações da plataforma e dos usuários?
Os desenvolvedores de modelos em larga escala têm uma gama relativamente ampla de coleta de dados do usuário. Esses dados podem fornecer uma base para grandes modelos para melhorar os produtos, mas também permitem que os usuários assumam muitos riscos. Da mesma forma, eles são muito conservadores em sua responsabilidade limitada e lembram repetidamente aos usuários que, como uma função experimental, o modelo grande não é responsável por quaisquer problemas ou perdas que ocorram após o uso pelos usuários.
"Não existe 100% de segurança de dados". Grandes modelos de IA, como outros produtos da Internet, apresentam riscos potenciais no processo de transmissão, armazenamento e processamento de dados. Isso não está nem entrando na maneira potencialmente vazada que o ChatGPT aprende a partir do corpus de entrada.
Embora os desenvolvedores afirmem “dessensibilizar” as informações do usuário, os usuários ainda devem verificar regularmente suas configurações de privacidade nessas plataformas e prestar atenção oportuna a quaisquer notificações emitidas pelas plataformas em formas incertas, como letras pequenas e janelas pop-up.
O acordo do usuário é uma forma comum para as empresas concluírem contratos com os usuários. Após a assinatura do contrato, o usuário não poderá solicitar o cancelamento do contrato com base em "não li" ou "não sabia". Para proteger ao máximo seus direitos legais e a segurança das informações pessoais, todos os usuários precisam ler atentamente o contrato do usuário, a política de privacidade etc. e, em seguida, clicar no atraente "Concordo e continuar".
Yuval Harari disse uma vez em "Uma Breve História da Humanidade": "As pessoas podem sacrificar um pouco de privacidade por conveniência." De fato, uma das tendências no desenvolvimento de grandes modelos é melhorar a conveniência da vida humana.Neste processo, parece inevitável que os usuários "transferam direitos de privacidade".
No entanto, ao ler atentamente os acordos e termos que muitas vezes são ignorados pelas pessoas, tentamos chamar a atenção para alguns lugares que podem não ser razoáveis e, assim, apelar para melhorias adicionais na plataforma.
Também esperamos que a proteção dos direitos e interesses dos usuários de modelos nacionais de grande escala possa ser sincronizada com o progresso do desenvolvimento dos modelos e que eles possam fazer escolhas ao coletar informações do usuário, provenientes de interesses de longo prazo e agir com prudência.