Crisis de gobernanza de OpenAI: ¿puede el modelo DAO evitarlo?
Recientemente, el gigante del campo de la inteligencia artificial OpenAI se ha visto envuelto en una grave crisis de gobernanza interna. Esta controversia ha suscitado amplias discusiones en la industria sobre su estructura organizativa, donde no faltan quienes sugieren que OpenAI debería adoptar un modelo de gobernanza de organización autónoma descentralizada (DAO). Entonces, si OpenAI realmente adoptara la forma de DAO, ¿podría evitar que ocurriera esta crisis?
En realidad, OpenAI, como una organización sin fines de lucro dedicada a crear una inteligencia artificial general (AGI) segura y que beneficie equitativamente a toda la humanidad, tiene un propósito bastante similar al de muchas organizaciones DAO. Sin embargo, los problemas que enfrenta OpenAI en la actualidad no provienen de su estructura organizativa en sí, sino de la ambigüedad y la irracionalidad de las reglas de gobernanza.
Por ejemplo, la junta de OpenAI, como el órgano supremo de poder, estaba compuesta originalmente por 9 miembros, pero actualmente solo quedan 6. La continua reducción de miembros de la junta ha llevado a una concentración excesiva del poder decisional, e incluso podría haber situaciones en las que solo se necesiten 2 personas para decidir el destino de la empresa. Lo que es aún más preocupante es que decisiones importantes, como el cambio de CEO Sam Altman, se toman en reuniones no públicas por parte de algunos directores, en lugar de ser discutidas y revisadas ampliamente por toda la junta. Esta práctica carece claramente de transparencia e inclusión, y no se han considerado adecuadamente las opiniones de todas las partes interesadas.
En comparación, incluso las empresas que cotizan en bolsa con fines de lucro incorporan directores independientes para mejorar la transparencia en la gobernanza corporativa. Para una organización tan importante como OpenAI, que se ocupa del desarrollo de tecnologías fundamentales, la seguridad social e incluso el destino de la humanidad, su mecanismo de gobernanza claramente tiene un gran margen de mejora.
Tomando como referencia el modelo de gobernanza del DAO, OpenAI podría considerar introducir más poderes de control, como representantes de empleados, y establecer mecanismos de gobernanza más efectivos. Esto no solo podría aumentar la transparencia e inclusión en la toma de decisiones, sino también equilibrar mejor los intereses de todas las partes, evitando que una crisis de gobernanza similar a la actual vuelva a ocurrir.
Es importante señalar que cuando se propuso por primera vez el DAO, su idea central era lograr un funcionamiento autónomo a través del código, eliminando al máximo la interferencia humana. Sin embargo, en la realidad, los DAO a menudo no pueden lograr completamente este ideal, sino que, en cambio, consideran a las organizaciones que realizan gobernanza colectiva basadas en redes blockchain como DAO. Esto significa que las personas han aceptado un cierto grado de realidad gobernada por humanos, mientras que las restricciones del código actúan como un medio auxiliar.
Es interesante que el objetivo de la AGI también persiga la autonomía. OpenAI menciona claramente en su estructura organizativa que la AGI se refiere a un sistema altamente autónomo que puede superar a los humanos en la mayoría de los trabajos de alto valor económico. Desde un punto de vista de principios fundamentales, tanto la AGI como el DAO tienen como objetivo construir sistemas que realmente posean autonomía, y en este aspecto no hay una diferencia esencial entre ambos.
¿Cómo debemos gobernar eficazmente ante tales sistemas autónomos? ¿Deberíamos confiar más en la alineación y el entrenamiento de los valores humanos endógenos, o deberíamos incorporar más restricciones externas? Estas preguntas no solo son aplicables a los modelos de lenguaje grandes (LLM) actuales, sino que también son temas importantes que deben ser considerados en el proceso de desarrollo de la AGI en el futuro.
Los últimos desarrollos de la crisis de OpenAI muestran que hasta el 90% de los empleados firmaron indicando que están dispuestos a renunciar y seguir a Sam Altman. Este fenómeno refleja un debate clásico en el ámbito de DAO en los últimos años: ¿qué es más importante, las reglas impuestas por el código o el consenso colectivo de la comunidad?
A pesar de que las reglas y restricciones pueden formar muchos consensos, el verdadero gran consenso a menudo no se forja a través de reglas. Solo un sentido compartido de misión y valores culturales puede lograr una profunda resonancia y coherencia. Ya sabemos cómo crear esta resonancia entre las personas, entonces, ¿cómo podemos lograr este objetivo en la era de la IA? Esta pregunta merece que la pensemos y exploremos en profundidad.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
4
Compartir
Comentar
0/400
degenwhisperer
· 07-15 00:13
Los perros pelean... se dispersaron, se dispersaron~
La controversia de OpenAI provoca reflexión: ¿puede el modelo DAO optimizar la gobernanza de los gigantes de la IA?
Crisis de gobernanza de OpenAI: ¿puede el modelo DAO evitarlo?
Recientemente, el gigante del campo de la inteligencia artificial OpenAI se ha visto envuelto en una grave crisis de gobernanza interna. Esta controversia ha suscitado amplias discusiones en la industria sobre su estructura organizativa, donde no faltan quienes sugieren que OpenAI debería adoptar un modelo de gobernanza de organización autónoma descentralizada (DAO). Entonces, si OpenAI realmente adoptara la forma de DAO, ¿podría evitar que ocurriera esta crisis?
En realidad, OpenAI, como una organización sin fines de lucro dedicada a crear una inteligencia artificial general (AGI) segura y que beneficie equitativamente a toda la humanidad, tiene un propósito bastante similar al de muchas organizaciones DAO. Sin embargo, los problemas que enfrenta OpenAI en la actualidad no provienen de su estructura organizativa en sí, sino de la ambigüedad y la irracionalidad de las reglas de gobernanza.
Por ejemplo, la junta de OpenAI, como el órgano supremo de poder, estaba compuesta originalmente por 9 miembros, pero actualmente solo quedan 6. La continua reducción de miembros de la junta ha llevado a una concentración excesiva del poder decisional, e incluso podría haber situaciones en las que solo se necesiten 2 personas para decidir el destino de la empresa. Lo que es aún más preocupante es que decisiones importantes, como el cambio de CEO Sam Altman, se toman en reuniones no públicas por parte de algunos directores, en lugar de ser discutidas y revisadas ampliamente por toda la junta. Esta práctica carece claramente de transparencia e inclusión, y no se han considerado adecuadamente las opiniones de todas las partes interesadas.
En comparación, incluso las empresas que cotizan en bolsa con fines de lucro incorporan directores independientes para mejorar la transparencia en la gobernanza corporativa. Para una organización tan importante como OpenAI, que se ocupa del desarrollo de tecnologías fundamentales, la seguridad social e incluso el destino de la humanidad, su mecanismo de gobernanza claramente tiene un gran margen de mejora.
Tomando como referencia el modelo de gobernanza del DAO, OpenAI podría considerar introducir más poderes de control, como representantes de empleados, y establecer mecanismos de gobernanza más efectivos. Esto no solo podría aumentar la transparencia e inclusión en la toma de decisiones, sino también equilibrar mejor los intereses de todas las partes, evitando que una crisis de gobernanza similar a la actual vuelva a ocurrir.
Es importante señalar que cuando se propuso por primera vez el DAO, su idea central era lograr un funcionamiento autónomo a través del código, eliminando al máximo la interferencia humana. Sin embargo, en la realidad, los DAO a menudo no pueden lograr completamente este ideal, sino que, en cambio, consideran a las organizaciones que realizan gobernanza colectiva basadas en redes blockchain como DAO. Esto significa que las personas han aceptado un cierto grado de realidad gobernada por humanos, mientras que las restricciones del código actúan como un medio auxiliar.
Es interesante que el objetivo de la AGI también persiga la autonomía. OpenAI menciona claramente en su estructura organizativa que la AGI se refiere a un sistema altamente autónomo que puede superar a los humanos en la mayoría de los trabajos de alto valor económico. Desde un punto de vista de principios fundamentales, tanto la AGI como el DAO tienen como objetivo construir sistemas que realmente posean autonomía, y en este aspecto no hay una diferencia esencial entre ambos.
¿Cómo debemos gobernar eficazmente ante tales sistemas autónomos? ¿Deberíamos confiar más en la alineación y el entrenamiento de los valores humanos endógenos, o deberíamos incorporar más restricciones externas? Estas preguntas no solo son aplicables a los modelos de lenguaje grandes (LLM) actuales, sino que también son temas importantes que deben ser considerados en el proceso de desarrollo de la AGI en el futuro.
Los últimos desarrollos de la crisis de OpenAI muestran que hasta el 90% de los empleados firmaron indicando que están dispuestos a renunciar y seguir a Sam Altman. Este fenómeno refleja un debate clásico en el ámbito de DAO en los últimos años: ¿qué es más importante, las reglas impuestas por el código o el consenso colectivo de la comunidad?
A pesar de que las reglas y restricciones pueden formar muchos consensos, el verdadero gran consenso a menudo no se forja a través de reglas. Solo un sentido compartido de misión y valores culturales puede lograr una profunda resonancia y coherencia. Ya sabemos cómo crear esta resonancia entre las personas, entonces, ¿cómo podemos lograr este objetivo en la era de la IA? Esta pregunta merece que la pensemos y exploremos en profundidad.