Fuente: Entertainment Capital, Autor: Fu Mengzhen, Editor: James
Hace unos días, alguien descubrió que SparkDesk, la plataforma de experiencia oficial del "Spark Cognitive Model" de Xunfei, tiene una estipulación desconcertante en el acuerdo de usuario:
Según una consulta de Entertainment Capital, las reglas de experiencia del usuario de SparkDesk tienen cláusulas con implicaciones relevantes. En este sentido, hemos preguntado sobre el acuerdo de usuario, las reglas de prueba y las cláusulas de privacidad de varios productos modelo a gran escala en China que se han probado públicamente. Recopile su información personal que se encuentra en canales públicos y redes sociales "y muchas otras regulaciones irrazonables.
Por eso, queremos decírtelo en este artículo:
¿Qué métodos de uso de modelos grandes de IA que cree que son completamente razonables en realidad "violan el acuerdo de usuario"?
¿Cómo se manejará la entrada de información privada o confidencial en el modelo grande?
¿Qué significa cuando corre el riesgo de violar los términos de uso de los grandes modelos de IA?
Si no tiene cuidado, violará el acuerdo
A mediados de marzo, Baidu Wenxin abrió las pruebas de productos. El 7 de abril, "Tongyi Qianwen" de Ali lanzó pruebas internas. El 17 de abril, "Tiangong" de Kunlun Wanwei lanzó pruebas internas. El 24 de abril, HKUST News Fei "Xinghuo Cognitive Model" comenzó pruebas internas.
Todos proporcionan a los usuarios una "regla de prueba" relativamente muy corta para reemplazar el extenso acuerdo de usuario del pasado, como las "Reglas de prueba de Wen Xin Yi Yan", y los usuarios deben leerla y aceptarla antes de usarla.
En general, estas reglas de prueba solo dicen tres cosas:
Por favor, no publiques contenido ilegal;
Todavía somos inmaduros y cometeremos errores, por favor no use los resultados generados directamente para ocasiones serias;
Por favor dénos tantos comentarios como sea posible.
Sin embargo, SparkDesk de Xunfei también estipula que no puede hacer que las cosas que genera, incluso su interfaz, sean públicas de ninguna forma. Es decir, en el momento en que toma una captura de pantalla con alguien en el grupo de WeChat para mostrar su calificación para la prueba interna, ya ha violado sus términos. Entertainment Capital Theory encontró el texto original correspondiente en "SparkDesk User Experience Rules":
*Dado que el servicio SparkDesk se encuentra actualmente en la etapa de experiencia, la información técnica de SparkDesk sobre programas informáticos, códigos, datos técnicos, software de sistemas y aplicaciones, bases de datos, algoritmos, interfaces interactivas (incluido el contenido de entrada y salida), diseño de productos, lanzamiento de productos y la información de planificación, etc. o la información comercial se clasifica como información confidencial. *
¡Usted comprende y acepta mantener la información confidencial antes mencionada estrictamente confidencial! Sin permiso, no puede divulgar, usar ni permitir que otros usen la información confidencial antes mencionada de ninguna forma (incluidas capturas de pantalla, impresiones, disquetes, CD, discos duros, correos electrónicos, redes, comunicaciones inalámbricas, etc.), ni enviarlos a sitios web, Weibo, grupos de WeChat o Momentos, cuentas de medios propios y otros entornos de red. *
*Si viola las obligaciones de confidencialidad estipuladas en estas reglas, tenemos derecho a perseguir su responsabilidad legal de acuerdo con la ley. *
Obviamente, la "interfaz interactiva (incluido el contenido de entrada y salida)" cubre lo que ingresamos en su cuadro de diálogo cuando usamos SparkDesk y los resultados que nos devuelve. Y, a menudo, usaremos capturas de pantalla de WeChat para enviarlas a amigos del grupo, lo cual es un movimiento perfectamente natural.
E ingrese el nombre de SparkDesk, y encontrará que hay muchos autores de cuentas oficiales. Primero, vio esta sección que prohíbe las capturas de pantalla al registrarse. Después de hacer clic en aceptar, comenzará a tomar capturas de pantalla de inmediato. Incluso si la marca de agua lleva su número de teléfono móvil , no tendrás miedo. .
Tenemos mucha curiosidad acerca de cómo se pusieron en práctica tales regulaciones, que deberían haber sido previstas como imposibles de implementar cuando se formularon.
**¿Puedo decirle a la gran modelo mi pequeño secreto? **
Además de obtener información de la red pública, el modelo grande también retiene los datos de chat de los usuarios y los utiliza para capacitación, por lo que la información personal de los usuarios o los secretos comerciales de las empresas también corren el riesgo de quedar expuestos al público. Anteriormente, la división de semiconductores de Samsung Electronics tuvo tres incidentes de ingreso de secretos comerciales en ChatGPT.
ChatGPT también ha filtrado la información personal de algunos suscriptores de ChatGPT Plus, lo que viola la política de privacidad GDPR de la UE.
Entonces, ¿qué información consignarán los grandes modelos domésticos en el acuerdo que recojan los usuarios?
Al igual que ChatGPT, etc., los grandes modelos domésticos de IA recopilarán el historial de preguntas y respuestas de usuarios y modelos. Si hace clic en "me gusta" o "no me gusta" junto a una respuesta, también se recopila esta información de comentarios adicional.
Esta recopilación de datos de preguntas y respuestas se utiliza principalmente para optimizar el producto. Sin embargo, Baidu Wenxin estipuló que esta información también puede ser utilizada por Baidu con fines comerciales.
"Reglas de protección de información personal de Wenxinyiyan (versión de prueba)" menciona:
*Después de que desidentifiquemos la información personal a través de medios técnicos, la información desidentificada no podrá identificar al sujeto. Por favor, comprenda y acepte que, en este caso, tenemos derecho a utilizar información anonimizada; bajo la premisa de no divulgar su información personal, tenemos derecho a analizar la base de datos de evaluadores y hacer uso comercial de ella. *
*Cuando mostramos su información personal, utilizaremos métodos que incluyen el reemplazo de contenido y la anonimización para desensibilizar y mostrar su información para proteger la seguridad de su información. *
De hecho, Baidu ya ha recopilado "imágenes interesantes" generadas por algunos usuarios que usan Wenxin Yiyan, como "rebanadas de pulmón de marido y mujer" y "pez mandarín ardilla" y otros registros de chat con textos irrelevantes, y los publicó en la cuenta de video de Baidu y otros canales de publicidad.
Usar un modelo grande como herramienta de asesoramiento es una de las cosas que a la gente le gusta hacer después de obtenerlo. Los usuarios usan el modelo grande como un agujero en el árbol y confían todos sus asuntos privados turbios a este sacerdote cibernético.
Sin embargo, si el desarrollador del gran modelo o los medios de comunicación usan su asesoramiento como un caso en el que se mezcla demasiada información personal propia para ser reconocible, esto puede causarle nuevos problemas.
Esta posibilidad también afecta al uso directo de las versiones generales de estos grandes modelos para asesoramiento psicológico, sin embargo, la versión comercial usándolos como API puede dar cuenta de la confidencialidad de los datos de los usuarios, así que espero que todos piensen bien antes de dejarse llevar.
Los varios modelos domésticos grandes que nos preocupan generalmente mencionan que usarán la "desensibilización" para procesar la información privada de todos, como "bajo la premisa de que ha sido desidentificado y no puede volver a identificar a un individuo específico" y otras expresiones. Pero en general, cuanta menos información recopile la plataforma, mejor, es la mayor protección para tu privacidad.
La situación real es la opuesta: debido a que los usuarios están esperando en la fila para obtener lugares de experiencia, estos productos modelo a gran escala tenderán a brindar información más detallada a aquellos usuarios que envíen su identidad cuando revisen las solicitudes de prueba.
Los usuarios pueden dar su opinión sobre si están satisfechos con las respuestas generadas por AI a través de Me gusta y No me gusta. Los desarrolladores también esperan que algunos ejemplos de mala generación sean los primeros en ser descubiertos e informados dentro de la plataforma. Sin embargo, lo que es "lamentable" para los desarrolladores es que, para muchos problemas extraños, los usuarios no brindan comentarios internos obedientemente, sino que los envían directamente a redes sociales como Xiaohongshu y Weibo.
En este momento, encontramos que algunos modelos mencionan en la política de privacidad que, si es necesario, también sabrán quién es una determinada captura de pantalla de sus perfiles de redes sociales:
Según lo permita la ley, también obtendremos información sobre usted de fuentes públicas o comerciales, incluidos los servicios de redes sociales de terceros. *
Los usuarios usan el modelo grande como un agujero en el árbol y confían todos sus asuntos privados turbios a este sacerdote cibernético. Usar el modelo grande como herramienta de asesoramiento psicológico es una de las cosas que a la gente le gusta hacer después de obtenerlo.
Sin embargo, si el desarrollador del gran modelo, o los medios de comunicación, hacen un ejemplo de su asesoramiento con el modelo, que contiene demasiada información personal sobre usted para ser identificable, esto puede darle una sensación de pérdida. Aquí viene un nuevo problema. .
Esta puede ser la razón por la que algunas aplicaciones de shell GPT (algunas llamadas "AI Buddha" o algo así) que se enfocan en el asesoramiento psicológico se han eliminado de los estantes. Así que espero que todos lo piensen antes de dejarlo ir, o si ven una captura de pantalla, no admitan que es de lo que están hablando, está bien.
Como dicen los términos de Tongyi Qianwen:
*Si se niega a recopilar y procesar la información antes mencionada, ingrese la información de texto con cuidado. Una vez que participe en la experiencia de prueba, se considerará que ha aceptado los términos anteriores. *
**Si rompo las reglas, ¿cuál será la sanción? **
Como todos sabemos, el contenido generado por IA ha sido considerado como no sujeto a protección de derechos de autor en las sentencias judiciales de varios países durante muchos años, es decir, cualquiera puede usarlo y modificarlo. La jurisprudencia de varios países considera principalmente que AI no es un ser humano, por lo que no es titular de derechos de propiedad intelectual.
Muchos usuarios, naturalmente, piensan que el contenido generado en la plataforma modelo grande les pertenece, o se puede acceder y modificar a voluntad. Sin embargo, los términos y condiciones de varios modelos domésticos a gran escala que revisamos no están todos estipulados de esta manera.
Ya hemos visto la "Cláusula de Confidencialidad" de Xunfei Spark. Y Kunlun Wanwei Tiangong (autoproclamado "singularidad" en los términos) no permite que los usuarios utilicen comercialmente el contenido generado. Por supuesto, puede haber consideraciones para evitar problemas detrás de esto. Después de todo, los derechos de autor del conjunto de datos en sí pueden también ser vago.
"A menos que Singularity autorice lo contrario por escrito, solo puede usar los Servicios de Tiangong para fines no comerciales. Usted promete no reproducir, copiar, vender o revender ninguna parte de los Servicios de Tiangong o el uso o adquisición de los Servicios de Tiangong o para publicidad u otros fines comerciales."*
Alibaba Tongyi Qianwen asigna el contenido que pertenece al usuario al usuario. Baidu Wenxin Yiyan no ha establecido normas claras al respecto, por lo que debe tener la libertad de utilizarlas.
Por el contrario, OpenAI encarna una especie de calidez hacia los clientes: asigna expresamente a los clientes todos los derechos, títulos e intereses en el contenido generado por el usuario.
En este punto, surge la pregunta: si realmente uso los resultados generados por la plataforma que no está permitido para uso comercial, ¿seré arrestado?
De hecho, los usuarios beta internos están solicitando activamente la calificación de prueba de modelos domésticos a gran escala, por supuesto, no todo por diversión. El contenido que producen debe usarse en su propio trabajo tanto como sea posible para mejorar verdaderamente la eficiencia. Parece irrazonable que la plataforma prohíba la comercialización del contenido generado, pero teniendo en cuenta que los desarrolladores pueden tener planes para comercializar la API, en general podemos entender por qué existe tal regulación.
El único problema es que, al igual que Mita Technology: cómo "China's Grammarly" puede lidiar con el "golpe de reducción de dimensionalidad" en la era GPT, como dijo Wang Yiwei, director de operaciones de Mita Technology, a Entertainment Capital, actualmente no hay ninguna herramienta en el market Puede detectar realmente qué párrafos genera la IA. “Si una empresa dice que entrenaré específicamente para cierto modelo grande, es posible que detecte rastros de la producción de ese modelo, pero si puede detectar todos los resultados generados por estos modelos grandes en el mercado, entonces es imposible. ."
Además, para lograr el objetivo de trazabilidad en la medida de lo posible, estos grandes modelos domésticos han adoptado el método de agregar marcas de agua en la interfaz para retener la información personal del usuario. Y hemos descubierto que algunos complementos de navegador pueden eliminar específicamente la marca de agua en la interfaz de estos modelos grandes.
El efecto es bastante perfecto.
Finalmente, hay otra pregunta: si cree que hay algunas "cláusulas de overlord" en estos términos, u otras razones, desea cancelar su cuenta, ¿será difícil?
Para Xunfei Xinghuo y Kunlun Wanwei Tiangong, las cuentas o pases de estos dos no vendrán con algunos productos o servicios particularmente importantes, por lo que es conveniente (algunas personas pueden ser usuarios pagos de Xunfei Dictation, etc., o cuando usan la API de Xunfei, se debe prestar especial atención en este momento).
Sin embargo, si desea deshabilitar Tongyi Qianwen, significa eliminar su cuenta de Alibaba Cloud; si desea deshabilitar Wenxinyiyan, significa eliminar su cuenta de Baidu. Estos dos son mucho más problemáticos.
Baidu proporciona a los usuarios de Wenxin Yiyan múltiples formas de acceder, procesar y solicitar la eliminación de datos personales sin eliminar sus cuentas. Se les pueden enviar necesidades personalizadas para apelar. Sin embargo, también mencionó que borrar los registros de diálogo en la interfaz de diálogo no significa eliminar inmediatamente el caché de estos registros en el servidor:
Cuando elimina información de nuestro servicio, es posible que no eliminemos la información correspondiente del sistema de copia de seguridad inmediatamente, pero eliminaremos la información cuando se actualice la copia de seguridad.
Los términos de Tongyi Qianwen señalaron que "puede iniciar sesión en el centro de cuentas y solicitar la cancelación de la cuenta para eliminar toda su información". Este centro de cuentas no está en la interfaz de Tongyi Qianwen, pero solo se puede encontrar en la consola. de Alibaba Cloud. Significa que cancelar su cuenta significa cancelar su cuenta de Alibaba Cloud.
En resumen, antes de que estos servicios puedan separarse de otros negocios adjuntos a la cuenta y permitir que se cancelen por separado, se recomienda que use su cuenta de uso menos frecuente para solicitar el registro de estos modelos grandes si realmente le importa.
Echemos un vistazo a OpenAI y encontraremos que los términos de limpieza de datos de usuario son mucho más amigables, pero también encontramos algunos términos muy al estilo estadounidense, como la llamada "lista de entidades".
Escribir al final
Cuando les preguntamos a estos grandes modelos sobre algunas disposiciones "abrumadoras" en el acuerdo de usuario, lo que realmente estamos preguntando es, ¿dónde está el límite entre los derechos y obligaciones de la plataforma y los usuarios?
Los desarrolladores de modelos a gran escala tienen una gama relativamente amplia de recopilación de datos de usuario. Estos datos pueden proporcionar una base para modelos grandes para mejorar los productos, pero también permiten que los usuarios asuman muchos riesgos. En consecuencia, son muy conservadores en su responsabilidad limitada y recuerdan repetidamente a los usuarios que, como función experimental, el modelo grande no es responsable de ningún problema o pérdida que ocurra después de que los usuarios lo usen.
"No hay seguridad de datos al 100%". Los modelos grandes de IA, al igual que otros productos de Internet, tienen riesgos potenciales en el proceso de transmisión, almacenamiento y procesamiento de datos. Esto ni siquiera es entrar en la forma potencialmente fugaz en la que ChatGPT aprende del corpus de entrada.
Aunque los desarrolladores afirman "insensibilizar" la información de los usuarios, los usuarios aún deben verificar regularmente su configuración de privacidad en estas plataformas y prestar atención oportuna a cualquier notificación emitida por las plataformas en formas inciertas, como letra pequeña y ventanas emergentes.
El acuerdo de usuario es una forma común para que las empresas celebren contratos con los usuarios. Después de firmar el contrato, el usuario no puede solicitar la rescisión del contrato alegando "no lo leí" o "no lo sabía". Para proteger al máximo sus derechos legales y la seguridad de su información personal, todos los usuarios deben leer detenidamente el acuerdo de usuario, la política de privacidad, etc., y luego hacer clic en el atractivo "Aceptar y continuar".
Yuval Harari dijo una vez en "Una breve historia de la humanidad": "La gente puede sacrificar algo de privacidad por conveniencia". De hecho, una de las tendencias en el desarrollo de modelos grandes es mejorar la comodidad de la vida humana.En este proceso, parece inevitable que los usuarios "transfieran derechos de privacidad".
Sin embargo, al leer detenidamente los acuerdos y los términos que a menudo ignoran las personas, tratamos de llamar la atención sobre algunos lugares que pueden no ser razonables y, por lo tanto, solicitamos una mayor mejora de la plataforma.
También esperamos que la protección de los derechos e intereses de los usuarios de los modelos nacionales a gran escala se pueda sincronizar con el progreso del desarrollo de los modelos, y que puedan tomar decisiones al recopilar información de los usuarios, partiendo de intereses a largo plazo, y actuar con prudencia.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Después de leer los acuerdos de usuario de 4 modelos domésticos grandes, me siento mal.
Fuente: Entertainment Capital, Autor: Fu Mengzhen, Editor: James
Hace unos días, alguien descubrió que SparkDesk, la plataforma de experiencia oficial del "Spark Cognitive Model" de Xunfei, tiene una estipulación desconcertante en el acuerdo de usuario:
Por eso, queremos decírtelo en este artículo:
¿Qué métodos de uso de modelos grandes de IA que cree que son completamente razonables en realidad "violan el acuerdo de usuario"?
¿Cómo se manejará la entrada de información privada o confidencial en el modelo grande?
¿Qué significa cuando corre el riesgo de violar los términos de uso de los grandes modelos de IA?
Si no tiene cuidado, violará el acuerdo
A mediados de marzo, Baidu Wenxin abrió las pruebas de productos. El 7 de abril, "Tongyi Qianwen" de Ali lanzó pruebas internas. El 17 de abril, "Tiangong" de Kunlun Wanwei lanzó pruebas internas. El 24 de abril, HKUST News Fei "Xinghuo Cognitive Model" comenzó pruebas internas.
Todos proporcionan a los usuarios una "regla de prueba" relativamente muy corta para reemplazar el extenso acuerdo de usuario del pasado, como las "Reglas de prueba de Wen Xin Yi Yan", y los usuarios deben leerla y aceptarla antes de usarla.
En general, estas reglas de prueba solo dicen tres cosas:
Por favor, no publiques contenido ilegal;
Todavía somos inmaduros y cometeremos errores, por favor no use los resultados generados directamente para ocasiones serias;
Por favor dénos tantos comentarios como sea posible.
Sin embargo, SparkDesk de Xunfei también estipula que no puede hacer que las cosas que genera, incluso su interfaz, sean públicas de ninguna forma. Es decir, en el momento en que toma una captura de pantalla con alguien en el grupo de WeChat para mostrar su calificación para la prueba interna, ya ha violado sus términos. Entertainment Capital Theory encontró el texto original correspondiente en "SparkDesk User Experience Rules":
*Dado que el servicio SparkDesk se encuentra actualmente en la etapa de experiencia, la información técnica de SparkDesk sobre programas informáticos, códigos, datos técnicos, software de sistemas y aplicaciones, bases de datos, algoritmos, interfaces interactivas (incluido el contenido de entrada y salida), diseño de productos, lanzamiento de productos y la información de planificación, etc. o la información comercial se clasifica como información confidencial. *
*Si viola las obligaciones de confidencialidad estipuladas en estas reglas, tenemos derecho a perseguir su responsabilidad legal de acuerdo con la ley. *
Obviamente, la "interfaz interactiva (incluido el contenido de entrada y salida)" cubre lo que ingresamos en su cuadro de diálogo cuando usamos SparkDesk y los resultados que nos devuelve. Y, a menudo, usaremos capturas de pantalla de WeChat para enviarlas a amigos del grupo, lo cual es un movimiento perfectamente natural.
E ingrese el nombre de SparkDesk, y encontrará que hay muchos autores de cuentas oficiales. Primero, vio esta sección que prohíbe las capturas de pantalla al registrarse. Después de hacer clic en aceptar, comenzará a tomar capturas de pantalla de inmediato. Incluso si la marca de agua lleva su número de teléfono móvil , no tendrás miedo. . Tenemos mucha curiosidad acerca de cómo se pusieron en práctica tales regulaciones, que deberían haber sido previstas como imposibles de implementar cuando se formularon.
**¿Puedo decirle a la gran modelo mi pequeño secreto? **
Además de obtener información de la red pública, el modelo grande también retiene los datos de chat de los usuarios y los utiliza para capacitación, por lo que la información personal de los usuarios o los secretos comerciales de las empresas también corren el riesgo de quedar expuestos al público. Anteriormente, la división de semiconductores de Samsung Electronics tuvo tres incidentes de ingreso de secretos comerciales en ChatGPT.
ChatGPT también ha filtrado la información personal de algunos suscriptores de ChatGPT Plus, lo que viola la política de privacidad GDPR de la UE. Entonces, ¿qué información consignarán los grandes modelos domésticos en el acuerdo que recojan los usuarios?
Al igual que ChatGPT, etc., los grandes modelos domésticos de IA recopilarán el historial de preguntas y respuestas de usuarios y modelos. Si hace clic en "me gusta" o "no me gusta" junto a una respuesta, también se recopila esta información de comentarios adicional.
Esta recopilación de datos de preguntas y respuestas se utiliza principalmente para optimizar el producto. Sin embargo, Baidu Wenxin estipuló que esta información también puede ser utilizada por Baidu con fines comerciales. "Reglas de protección de información personal de Wenxinyiyan (versión de prueba)" menciona:
*Después de que desidentifiquemos la información personal a través de medios técnicos, la información desidentificada no podrá identificar al sujeto. Por favor, comprenda y acepte que, en este caso, tenemos derecho a utilizar información anonimizada; bajo la premisa de no divulgar su información personal, tenemos derecho a analizar la base de datos de evaluadores y hacer uso comercial de ella. *
*Cuando mostramos su información personal, utilizaremos métodos que incluyen el reemplazo de contenido y la anonimización para desensibilizar y mostrar su información para proteger la seguridad de su información. *
De hecho, Baidu ya ha recopilado "imágenes interesantes" generadas por algunos usuarios que usan Wenxin Yiyan, como "rebanadas de pulmón de marido y mujer" y "pez mandarín ardilla" y otros registros de chat con textos irrelevantes, y los publicó en la cuenta de video de Baidu y otros canales de publicidad.
Sin embargo, si el desarrollador del gran modelo o los medios de comunicación usan su asesoramiento como un caso en el que se mezcla demasiada información personal propia para ser reconocible, esto puede causarle nuevos problemas.
Esta posibilidad también afecta al uso directo de las versiones generales de estos grandes modelos para asesoramiento psicológico, sin embargo, la versión comercial usándolos como API puede dar cuenta de la confidencialidad de los datos de los usuarios, así que espero que todos piensen bien antes de dejarse llevar.
Los varios modelos domésticos grandes que nos preocupan generalmente mencionan que usarán la "desensibilización" para procesar la información privada de todos, como "bajo la premisa de que ha sido desidentificado y no puede volver a identificar a un individuo específico" y otras expresiones. Pero en general, cuanta menos información recopile la plataforma, mejor, es la mayor protección para tu privacidad.
La situación real es la opuesta: debido a que los usuarios están esperando en la fila para obtener lugares de experiencia, estos productos modelo a gran escala tenderán a brindar información más detallada a aquellos usuarios que envíen su identidad cuando revisen las solicitudes de prueba.
Los usuarios pueden dar su opinión sobre si están satisfechos con las respuestas generadas por AI a través de Me gusta y No me gusta. Los desarrolladores también esperan que algunos ejemplos de mala generación sean los primeros en ser descubiertos e informados dentro de la plataforma. Sin embargo, lo que es "lamentable" para los desarrolladores es que, para muchos problemas extraños, los usuarios no brindan comentarios internos obedientemente, sino que los envían directamente a redes sociales como Xiaohongshu y Weibo.
En este momento, encontramos que algunos modelos mencionan en la política de privacidad que, si es necesario, también sabrán quién es una determinada captura de pantalla de sus perfiles de redes sociales:
Los usuarios usan el modelo grande como un agujero en el árbol y confían todos sus asuntos privados turbios a este sacerdote cibernético. Usar el modelo grande como herramienta de asesoramiento psicológico es una de las cosas que a la gente le gusta hacer después de obtenerlo.
Sin embargo, si el desarrollador del gran modelo, o los medios de comunicación, hacen un ejemplo de su asesoramiento con el modelo, que contiene demasiada información personal sobre usted para ser identificable, esto puede darle una sensación de pérdida. Aquí viene un nuevo problema. .
Esta puede ser la razón por la que algunas aplicaciones de shell GPT (algunas llamadas "AI Buddha" o algo así) que se enfocan en el asesoramiento psicológico se han eliminado de los estantes. Así que espero que todos lo piensen antes de dejarlo ir, o si ven una captura de pantalla, no admitan que es de lo que están hablando, está bien.
Como dicen los términos de Tongyi Qianwen:
*Si se niega a recopilar y procesar la información antes mencionada, ingrese la información de texto con cuidado. Una vez que participe en la experiencia de prueba, se considerará que ha aceptado los términos anteriores. *
**Si rompo las reglas, ¿cuál será la sanción? **
Como todos sabemos, el contenido generado por IA ha sido considerado como no sujeto a protección de derechos de autor en las sentencias judiciales de varios países durante muchos años, es decir, cualquiera puede usarlo y modificarlo. La jurisprudencia de varios países considera principalmente que AI no es un ser humano, por lo que no es titular de derechos de propiedad intelectual.
Muchos usuarios, naturalmente, piensan que el contenido generado en la plataforma modelo grande les pertenece, o se puede acceder y modificar a voluntad. Sin embargo, los términos y condiciones de varios modelos domésticos a gran escala que revisamos no están todos estipulados de esta manera.
Ya hemos visto la "Cláusula de Confidencialidad" de Xunfei Spark. Y Kunlun Wanwei Tiangong (autoproclamado "singularidad" en los términos) no permite que los usuarios utilicen comercialmente el contenido generado. Por supuesto, puede haber consideraciones para evitar problemas detrás de esto. Después de todo, los derechos de autor del conjunto de datos en sí pueden también ser vago.
Alibaba Tongyi Qianwen asigna el contenido que pertenece al usuario al usuario. Baidu Wenxin Yiyan no ha establecido normas claras al respecto, por lo que debe tener la libertad de utilizarlas.
Por el contrario, OpenAI encarna una especie de calidez hacia los clientes: asigna expresamente a los clientes todos los derechos, títulos e intereses en el contenido generado por el usuario.
De hecho, los usuarios beta internos están solicitando activamente la calificación de prueba de modelos domésticos a gran escala, por supuesto, no todo por diversión. El contenido que producen debe usarse en su propio trabajo tanto como sea posible para mejorar verdaderamente la eficiencia. Parece irrazonable que la plataforma prohíba la comercialización del contenido generado, pero teniendo en cuenta que los desarrolladores pueden tener planes para comercializar la API, en general podemos entender por qué existe tal regulación.
El único problema es que, al igual que Mita Technology: cómo "China's Grammarly" puede lidiar con el "golpe de reducción de dimensionalidad" en la era GPT, como dijo Wang Yiwei, director de operaciones de Mita Technology, a Entertainment Capital, actualmente no hay ninguna herramienta en el market Puede detectar realmente qué párrafos genera la IA. “Si una empresa dice que entrenaré específicamente para cierto modelo grande, es posible que detecte rastros de la producción de ese modelo, pero si puede detectar todos los resultados generados por estos modelos grandes en el mercado, entonces es imposible. ."
Además, para lograr el objetivo de trazabilidad en la medida de lo posible, estos grandes modelos domésticos han adoptado el método de agregar marcas de agua en la interfaz para retener la información personal del usuario. Y hemos descubierto que algunos complementos de navegador pueden eliminar específicamente la marca de agua en la interfaz de estos modelos grandes.
Finalmente, hay otra pregunta: si cree que hay algunas "cláusulas de overlord" en estos términos, u otras razones, desea cancelar su cuenta, ¿será difícil?
Para Xunfei Xinghuo y Kunlun Wanwei Tiangong, las cuentas o pases de estos dos no vendrán con algunos productos o servicios particularmente importantes, por lo que es conveniente (algunas personas pueden ser usuarios pagos de Xunfei Dictation, etc., o cuando usan la API de Xunfei, se debe prestar especial atención en este momento).
Sin embargo, si desea deshabilitar Tongyi Qianwen, significa eliminar su cuenta de Alibaba Cloud; si desea deshabilitar Wenxinyiyan, significa eliminar su cuenta de Baidu. Estos dos son mucho más problemáticos.
Baidu proporciona a los usuarios de Wenxin Yiyan múltiples formas de acceder, procesar y solicitar la eliminación de datos personales sin eliminar sus cuentas. Se les pueden enviar necesidades personalizadas para apelar. Sin embargo, también mencionó que borrar los registros de diálogo en la interfaz de diálogo no significa eliminar inmediatamente el caché de estos registros en el servidor:
Cuando elimina información de nuestro servicio, es posible que no eliminemos la información correspondiente del sistema de copia de seguridad inmediatamente, pero eliminaremos la información cuando se actualice la copia de seguridad.
Los términos de Tongyi Qianwen señalaron que "puede iniciar sesión en el centro de cuentas y solicitar la cancelación de la cuenta para eliminar toda su información". Este centro de cuentas no está en la interfaz de Tongyi Qianwen, pero solo se puede encontrar en la consola. de Alibaba Cloud. Significa que cancelar su cuenta significa cancelar su cuenta de Alibaba Cloud.
En resumen, antes de que estos servicios puedan separarse de otros negocios adjuntos a la cuenta y permitir que se cancelen por separado, se recomienda que use su cuenta de uso menos frecuente para solicitar el registro de estos modelos grandes si realmente le importa.
Echemos un vistazo a OpenAI y encontraremos que los términos de limpieza de datos de usuario son mucho más amigables, pero también encontramos algunos términos muy al estilo estadounidense, como la llamada "lista de entidades".
Escribir al final
Cuando les preguntamos a estos grandes modelos sobre algunas disposiciones "abrumadoras" en el acuerdo de usuario, lo que realmente estamos preguntando es, ¿dónde está el límite entre los derechos y obligaciones de la plataforma y los usuarios?
Los desarrolladores de modelos a gran escala tienen una gama relativamente amplia de recopilación de datos de usuario. Estos datos pueden proporcionar una base para modelos grandes para mejorar los productos, pero también permiten que los usuarios asuman muchos riesgos. En consecuencia, son muy conservadores en su responsabilidad limitada y recuerdan repetidamente a los usuarios que, como función experimental, el modelo grande no es responsable de ningún problema o pérdida que ocurra después de que los usuarios lo usen.
"No hay seguridad de datos al 100%". Los modelos grandes de IA, al igual que otros productos de Internet, tienen riesgos potenciales en el proceso de transmisión, almacenamiento y procesamiento de datos. Esto ni siquiera es entrar en la forma potencialmente fugaz en la que ChatGPT aprende del corpus de entrada.
Aunque los desarrolladores afirman "insensibilizar" la información de los usuarios, los usuarios aún deben verificar regularmente su configuración de privacidad en estas plataformas y prestar atención oportuna a cualquier notificación emitida por las plataformas en formas inciertas, como letra pequeña y ventanas emergentes.
El acuerdo de usuario es una forma común para que las empresas celebren contratos con los usuarios. Después de firmar el contrato, el usuario no puede solicitar la rescisión del contrato alegando "no lo leí" o "no lo sabía". Para proteger al máximo sus derechos legales y la seguridad de su información personal, todos los usuarios deben leer detenidamente el acuerdo de usuario, la política de privacidad, etc., y luego hacer clic en el atractivo "Aceptar y continuar".
Yuval Harari dijo una vez en "Una breve historia de la humanidad": "La gente puede sacrificar algo de privacidad por conveniencia". De hecho, una de las tendencias en el desarrollo de modelos grandes es mejorar la comodidad de la vida humana.En este proceso, parece inevitable que los usuarios "transfieran derechos de privacidad".
Sin embargo, al leer detenidamente los acuerdos y los términos que a menudo ignoran las personas, tratamos de llamar la atención sobre algunos lugares que pueden no ser razonables y, por lo tanto, solicitamos una mayor mejora de la plataforma.
También esperamos que la protección de los derechos e intereses de los usuarios de los modelos nacionales a gran escala se pueda sincronizar con el progreso del desarrollo de los modelos, y que puedan tomar decisiones al recopilar información de los usuarios, partiendo de intereses a largo plazo, y actuar con prudencia.