Crise de Governança da OpenAI: O modelo DAO pode evitar?
Recentemente, a gigante do campo da inteligência artificial OpenAI enfrentou uma grave crise de governança interna. Este tumulto provocou amplas discussões na indústria sobre a sua estrutura organizacional, com algumas pessoas sugerindo que a OpenAI deveria adotar o modelo de governança de uma Organização Autônoma Descentralizada (DAO). Assim, se a OpenAI realmente adotasse a forma de DAO, seria possível evitar a ocorrência desta crise?
Na verdade, a OpenAI, como uma organização sem fins lucrativos dedicada a criar inteligência artificial geral (AGI) segura e beneficiar toda a humanidade de forma equitativa, tem objetivos bastante semelhantes aos de muitas organizações DAO. No entanto, os problemas que a OpenAI enfrenta atualmente não decorrem da sua estrutura organizacional, mas sim da falta de clareza e da irracionalidade das regras de governança.
Por exemplo, o conselho da OpenAI, como o órgão de poder máximo, originalmente composto por 9 pessoas, atualmente conta apenas com 6. A contínua redução do número de membros do conselho levou a uma concentração excessiva do poder de decisão, podendo até ocorrer uma situação em que apenas 2 pessoas possam decidir o destino da empresa. Mais preocupante é que decisões significativas, como a substituição do CEO Sam Altman, foram tomadas em reuniões não públicas por alguns membros do conselho, e não após uma discussão e uma deliberação completas por parte de todo o conselho. Esta abordagem claramente carece de transparência e inclusão, não considerando adequadamente as opiniões de todas as partes interessadas.
Em comparação, até mesmo empresas listadas com fins lucrativos introduzem diretores independentes para aumentar a transparência da governança corporativa. Para uma organização importante como a OpenAI, que diz respeito ao desenvolvimento de tecnologias fundamentais, segurança social e até ao destino da humanidade, o seu mecanismo de governança claramente ainda tem muito espaço para melhorias.
Inspirando-se no modelo de governança da DAO, a OpenAI pode considerar a introdução de mais forças de equilíbrio, como representantes dos funcionários, e estabelecer um mecanismo de governança mais eficaz. Isso não só aumentaria a transparência e a inclusão nas decisões, mas também equilibraria melhor os interesses de todas as partes, evitando que uma crise de governança semelhante à atual ocorra novamente.
Vale a pena notar que, quando o DAO foi inicialmente proposto, sua ideia central era operar de forma autônoma através de código, minimizando a interferência humana. No entanto, na realidade, os DAOs muitas vezes não conseguem alcançar esse ideal completamente e, em vez disso, consideram como DAO as organizações que realizam governança coletiva com base em redes blockchain. Isso significa que as pessoas aceitaram um certo grau de realidade governada por humanos, enquanto as restrições de código são vistas como um meio auxiliar.
É interessante notar que o objetivo da AGI também busca a autonomia. A OpenAI menciona claramente em sua estrutura organizacional que a AGI se refere a um sistema altamente autônomo, capaz de superar os humanos na maioria dos trabalhos com alto valor econômico. Em termos de princípios fundamentais, tanto a AGI quanto a DAO visam construir sistemas que realmente possuam autonomia, e nesse aspecto não há diferença essencial entre os dois.
Como devemos governar efetivamente sistemas autônomos como este? Devemos confiar mais na aliança e no ajuste dos valores humanos endógenos, ou devemos adicionar mais restrições externas? Essas questões não se aplicam apenas aos atuais modelos de linguagem de grande escala (LLM), mas são tópicos importantes que precisam ser considerados no desenvolvimento futuro da AGI.
Os últimos desenvolvimentos da crise da OpenAI mostram que até 90% dos funcionários que assinaram estão dispostos a se demitir e seguir Sam Altman. Este fenômeno ecoa um debate clássico no campo do DAO nos últimos anos: qual é mais importante, as regras impostas pelo código ou o consenso da comunidade?
Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Apenas um senso compartilhado de missão e valores culturais pode realmente alcançar uma ressonância e consistência profundas. Já sabemos como criar essa ressonância entre as pessoas, então, na era da IA, como devemos alcançar esse objetivo? Esta é uma questão que vale a pena refletir e explorar.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A controvérsia da OpenAI provoca reflexão: será que o modelo DAO pode otimizar a governança dos gigantes da IA?
Crise de Governança da OpenAI: O modelo DAO pode evitar?
Recentemente, a gigante do campo da inteligência artificial OpenAI enfrentou uma grave crise de governança interna. Este tumulto provocou amplas discussões na indústria sobre a sua estrutura organizacional, com algumas pessoas sugerindo que a OpenAI deveria adotar o modelo de governança de uma Organização Autônoma Descentralizada (DAO). Assim, se a OpenAI realmente adotasse a forma de DAO, seria possível evitar a ocorrência desta crise?
Na verdade, a OpenAI, como uma organização sem fins lucrativos dedicada a criar inteligência artificial geral (AGI) segura e beneficiar toda a humanidade de forma equitativa, tem objetivos bastante semelhantes aos de muitas organizações DAO. No entanto, os problemas que a OpenAI enfrenta atualmente não decorrem da sua estrutura organizacional, mas sim da falta de clareza e da irracionalidade das regras de governança.
Por exemplo, o conselho da OpenAI, como o órgão de poder máximo, originalmente composto por 9 pessoas, atualmente conta apenas com 6. A contínua redução do número de membros do conselho levou a uma concentração excessiva do poder de decisão, podendo até ocorrer uma situação em que apenas 2 pessoas possam decidir o destino da empresa. Mais preocupante é que decisões significativas, como a substituição do CEO Sam Altman, foram tomadas em reuniões não públicas por alguns membros do conselho, e não após uma discussão e uma deliberação completas por parte de todo o conselho. Esta abordagem claramente carece de transparência e inclusão, não considerando adequadamente as opiniões de todas as partes interessadas.
Em comparação, até mesmo empresas listadas com fins lucrativos introduzem diretores independentes para aumentar a transparência da governança corporativa. Para uma organização importante como a OpenAI, que diz respeito ao desenvolvimento de tecnologias fundamentais, segurança social e até ao destino da humanidade, o seu mecanismo de governança claramente ainda tem muito espaço para melhorias.
Inspirando-se no modelo de governança da DAO, a OpenAI pode considerar a introdução de mais forças de equilíbrio, como representantes dos funcionários, e estabelecer um mecanismo de governança mais eficaz. Isso não só aumentaria a transparência e a inclusão nas decisões, mas também equilibraria melhor os interesses de todas as partes, evitando que uma crise de governança semelhante à atual ocorra novamente.
Vale a pena notar que, quando o DAO foi inicialmente proposto, sua ideia central era operar de forma autônoma através de código, minimizando a interferência humana. No entanto, na realidade, os DAOs muitas vezes não conseguem alcançar esse ideal completamente e, em vez disso, consideram como DAO as organizações que realizam governança coletiva com base em redes blockchain. Isso significa que as pessoas aceitaram um certo grau de realidade governada por humanos, enquanto as restrições de código são vistas como um meio auxiliar.
É interessante notar que o objetivo da AGI também busca a autonomia. A OpenAI menciona claramente em sua estrutura organizacional que a AGI se refere a um sistema altamente autônomo, capaz de superar os humanos na maioria dos trabalhos com alto valor econômico. Em termos de princípios fundamentais, tanto a AGI quanto a DAO visam construir sistemas que realmente possuam autonomia, e nesse aspecto não há diferença essencial entre os dois.
Como devemos governar efetivamente sistemas autônomos como este? Devemos confiar mais na aliança e no ajuste dos valores humanos endógenos, ou devemos adicionar mais restrições externas? Essas questões não se aplicam apenas aos atuais modelos de linguagem de grande escala (LLM), mas são tópicos importantes que precisam ser considerados no desenvolvimento futuro da AGI.
Os últimos desenvolvimentos da crise da OpenAI mostram que até 90% dos funcionários que assinaram estão dispostos a se demitir e seguir Sam Altman. Este fenômeno ecoa um debate clássico no campo do DAO nos últimos anos: qual é mais importante, as regras impostas pelo código ou o consenso da comunidade?
Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Apenas um senso compartilhado de missão e valores culturais pode realmente alcançar uma ressonância e consistência profundas. Já sabemos como criar essa ressonância entre as pessoas, então, na era da IA, como devemos alcançar esse objetivo? Esta é uma questão que vale a pena refletir e explorar.