A controvérsia da OpenAI provoca reflexão: será que o modelo DAO pode otimizar a governança dos gigantes da IA?

robot
Geração do resumo em andamento

Crise de Governança da OpenAI: O modelo DAO pode evitar?

Recentemente, a gigante do campo da inteligência artificial OpenAI enfrentou uma grave crise de governança interna. Este tumulto provocou amplas discussões na indústria sobre a sua estrutura organizacional, com algumas pessoas sugerindo que a OpenAI deveria adotar o modelo de governança de uma Organização Autônoma Descentralizada (DAO). Assim, se a OpenAI realmente adotasse a forma de DAO, seria possível evitar a ocorrência desta crise?

Opinião: Se a OpenAI fosse um DAO, poderia evitar essa palhaçada de governança?

Na verdade, a OpenAI, como uma organização sem fins lucrativos dedicada a criar inteligência artificial geral (AGI) segura e beneficiar toda a humanidade de forma equitativa, tem objetivos bastante semelhantes aos de muitas organizações DAO. No entanto, os problemas que a OpenAI enfrenta atualmente não decorrem da sua estrutura organizacional, mas sim da falta de clareza e da irracionalidade das regras de governança.

Por exemplo, o conselho da OpenAI, como o órgão de poder máximo, originalmente composto por 9 pessoas, atualmente conta apenas com 6. A contínua redução do número de membros do conselho levou a uma concentração excessiva do poder de decisão, podendo até ocorrer uma situação em que apenas 2 pessoas possam decidir o destino da empresa. Mais preocupante é que decisões significativas, como a substituição do CEO Sam Altman, foram tomadas em reuniões não públicas por alguns membros do conselho, e não após uma discussão e uma deliberação completas por parte de todo o conselho. Esta abordagem claramente carece de transparência e inclusão, não considerando adequadamente as opiniões de todas as partes interessadas.

Em comparação, até mesmo empresas listadas com fins lucrativos introduzem diretores independentes para aumentar a transparência da governança corporativa. Para uma organização importante como a OpenAI, que diz respeito ao desenvolvimento de tecnologias fundamentais, segurança social e até ao destino da humanidade, o seu mecanismo de governança claramente ainda tem muito espaço para melhorias.

Inspirando-se no modelo de governança da DAO, a OpenAI pode considerar a introdução de mais forças de equilíbrio, como representantes dos funcionários, e estabelecer um mecanismo de governança mais eficaz. Isso não só aumentaria a transparência e a inclusão nas decisões, mas também equilibraria melhor os interesses de todas as partes, evitando que uma crise de governança semelhante à atual ocorra novamente.

Vale a pena notar que, quando o DAO foi inicialmente proposto, sua ideia central era operar de forma autônoma através de código, minimizando a interferência humana. No entanto, na realidade, os DAOs muitas vezes não conseguem alcançar esse ideal completamente e, em vez disso, consideram como DAO as organizações que realizam governança coletiva com base em redes blockchain. Isso significa que as pessoas aceitaram um certo grau de realidade governada por humanos, enquanto as restrições de código são vistas como um meio auxiliar.

Opinião: Se a OpenAI fosse um DAO, poderia evitar essa palhaçada de governança?

É interessante notar que o objetivo da AGI também busca a autonomia. A OpenAI menciona claramente em sua estrutura organizacional que a AGI se refere a um sistema altamente autônomo, capaz de superar os humanos na maioria dos trabalhos com alto valor econômico. Em termos de princípios fundamentais, tanto a AGI quanto a DAO visam construir sistemas que realmente possuam autonomia, e nesse aspecto não há diferença essencial entre os dois.

Como devemos governar efetivamente sistemas autônomos como este? Devemos confiar mais na aliança e no ajuste dos valores humanos endógenos, ou devemos adicionar mais restrições externas? Essas questões não se aplicam apenas aos atuais modelos de linguagem de grande escala (LLM), mas são tópicos importantes que precisam ser considerados no desenvolvimento futuro da AGI.

Os últimos desenvolvimentos da crise da OpenAI mostram que até 90% dos funcionários que assinaram estão dispostos a se demitir e seguir Sam Altman. Este fenômeno ecoa um debate clássico no campo do DAO nos últimos anos: qual é mais importante, as regras impostas pelo código ou o consenso da comunidade?

Opinião: Se a OpenAI fosse um DAO, poderia evitar essa comédia de governança?

Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Apenas um senso compartilhado de missão e valores culturais pode realmente alcançar uma ressonância e consistência profundas. Já sabemos como criar essa ressonância entre as pessoas, então, na era da IA, como devemos alcançar esse objetivo? Esta é uma questão que vale a pena refletir e explorar.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 4
  • Compartilhar
Comentário
0/400
degenwhisperervip
· 12h atrás
Cães brigando... dispersaram, dispersaram~
Ver originalResponder0
ApeWithAPlanvip
· 12h atrás
Gerir a crise ou o velho padrão
Ver originalResponder0
LucidSleepwalkervip
· 13h atrás
Essas governanças são apenas uma fachada.
Ver originalResponder0
MerkleDreamervip
· 13h atrás
O velho Sam já não está.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)