Crise de gouvernance d'OpenAI : le modèle DAO peut-il l'éviter ?
Récemment, le géant de l'intelligence artificielle OpenAI a été plongé dans une grave crise de gouvernance interne. Ce tumulte a suscité de larges discussions dans l'industrie sur sa structure organisationnelle, et certains ont même suggéré qu'OpenAI devrait adopter un modèle de gouvernance de type organisation autonome décentralisée (DAO). Alors, si OpenAI adoptait vraiment la forme d'un DAO, pourrait-il éviter la survenue de cette crise ?
En réalité, OpenAI, en tant qu'organisation à but non lucratif dédiée à la création d'une intelligence artificielle générale (AGI) sûre et bénéfique pour l'humanité entière, partage des objectifs similaires à de nombreuses organisations DAO. Cependant, les problèmes auxquels OpenAI est actuellement confrontée ne proviennent pas de sa structure organisationnelle, mais plutôt de l'ambiguïté et de l'irréalisme des règles de gouvernance.
Par exemple, le conseil d'administration d'OpenAI, en tant qu'organe suprême, était initialement composé de 9 membres, mais il ne reste actuellement que 6 membres. La réduction continue du nombre de membres du conseil d'administration a conduit à une concentration excessive du pouvoir décisionnel, au point qu'il pourrait suffire que 2 personnes soient d'accord pour décider du destin de l'entreprise. Ce qui est encore plus inquiétant, c'est que des décisions majeures, telles que le remplacement du PDG Sam Altman, ont été prises par certains administrateurs lors de réunions non publiques, plutôt que d'être discutées et examinées de manière approfondie par l'ensemble du conseil d'administration. Cette pratique manque manifestement de transparence et d'inclusivité, et n'a pas suffisamment pris en compte les opinions des parties prenantes.
En comparaison, même les entreprises cotées à but lucratif introduisent des administrateurs indépendants pour améliorer la transparence de la gouvernance d'entreprise. Pour une organisation aussi importante qu'OpenAI, qui concerne le développement des technologies fondamentales, la sécurité sociale et même le destin de l'humanité, il est clair que son mécanisme de gouvernance a encore beaucoup d'espace pour s'améliorer.
En s'inspirant du modèle de gouvernance de la DAO, OpenAI pourrait envisager d'introduire davantage de contre-pouvoirs, comme des représentants des employés, et d'établir des mécanismes de gouvernance plus efficaces. Cela pourrait non seulement accroître la transparence et l'inclusivité des décisions, mais aussi mieux équilibrer les intérêts de chaque partie, afin d'éviter qu'une crise de gouvernance similaire à celle-ci ne se reproduise.
Il est à noter que lorsque le DAO a été initialement proposé, son idée centrale était de fonctionner de manière autonome par le biais de codes, en minimisant au maximum les interférences humaines. Cependant, dans la réalité, les DAO ne parviennent souvent pas à réaliser cet idéal, mais se contentent de considérer comme DAO les organisations qui pratiquent la gouvernance collective basée sur des réseaux de blockchain. Cela signifie que les gens acceptent un certain degré de réalité dirigée par l'homme, tandis que les contraintes de code servent de moyens auxiliaires.
Il est intéressant de noter que l'objectif de l'AGI vise également l'autonomie. OpenAI mentionne clairement dans sa structure organisationnelle que l'AGI fait référence à un système hautement autonome capable de surpasser les humains dans la plupart des travaux de grande valeur économique. D'un point de vue fondamental, l'AGI et le DAO visent tous deux à construire des systèmes réellement autonomes, et il n'y a pas de différence essentielle entre les deux.
Face à de tels systèmes autonomes, comment devrions-nous procéder à une gouvernance efficace ? Devons-nous nous fier davantage à l'alignement et à l'éducation des valeurs humaines endogènes, ou devrions-nous ajouter plus de contraintes externes ? Ces questions ne s'appliquent pas seulement aux modèles de langage de grande taille (LLM) actuels, mais sont également des sujets importants qui nécessitent une réflexion dans le processus de développement futur de l'AGI.
Les dernières évolutions de la crise d'OpenAI montrent qu jusqu'à 90 % des employés ont signé pour indiquer qu'ils sont prêts à démissionner et à suivre Sam Altman. Ce phénomène fait écho à un débat classique dans le domaine des DAO ces dernières années : quelle est la plus importante, les règles contraignantes du code ou le consensus communautaire ?
Bien que les règles et les contraintes puissent créer de nombreux consensus, le véritable grand consensus n'est souvent pas forgé par des règles. Seul un sens partagé de la mission et des valeurs culturelles peut vraiment atteindre une profonde résonance et une cohérence. Nous savons déjà comment créer cette résonance entre les personnes, alors, à l'ère de l'IA, comment devrions-nous atteindre cet objectif ? Cette question mérite que nous y réfléchissions et l'explorions en profondeur.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
4
Partager
Commentaire
0/400
degenwhisperer
· 07-15 00:13
Les chiens se battent... ça se disperse, ça se disperse~
Voir l'originalRépondre0
ApeWithAPlan
· 07-15 00:13
Gérer la crise ou le vieux piège
Voir l'originalRépondre0
LucidSleepwalker
· 07-15 00:04
Ces gouvernances ne sont que de la poudre aux yeux.
La controverse autour d'OpenAI soulève une réflexion : le modèle DAO peut-il optimiser la gouvernance des géants de l'IA ?
Crise de gouvernance d'OpenAI : le modèle DAO peut-il l'éviter ?
Récemment, le géant de l'intelligence artificielle OpenAI a été plongé dans une grave crise de gouvernance interne. Ce tumulte a suscité de larges discussions dans l'industrie sur sa structure organisationnelle, et certains ont même suggéré qu'OpenAI devrait adopter un modèle de gouvernance de type organisation autonome décentralisée (DAO). Alors, si OpenAI adoptait vraiment la forme d'un DAO, pourrait-il éviter la survenue de cette crise ?
En réalité, OpenAI, en tant qu'organisation à but non lucratif dédiée à la création d'une intelligence artificielle générale (AGI) sûre et bénéfique pour l'humanité entière, partage des objectifs similaires à de nombreuses organisations DAO. Cependant, les problèmes auxquels OpenAI est actuellement confrontée ne proviennent pas de sa structure organisationnelle, mais plutôt de l'ambiguïté et de l'irréalisme des règles de gouvernance.
Par exemple, le conseil d'administration d'OpenAI, en tant qu'organe suprême, était initialement composé de 9 membres, mais il ne reste actuellement que 6 membres. La réduction continue du nombre de membres du conseil d'administration a conduit à une concentration excessive du pouvoir décisionnel, au point qu'il pourrait suffire que 2 personnes soient d'accord pour décider du destin de l'entreprise. Ce qui est encore plus inquiétant, c'est que des décisions majeures, telles que le remplacement du PDG Sam Altman, ont été prises par certains administrateurs lors de réunions non publiques, plutôt que d'être discutées et examinées de manière approfondie par l'ensemble du conseil d'administration. Cette pratique manque manifestement de transparence et d'inclusivité, et n'a pas suffisamment pris en compte les opinions des parties prenantes.
En comparaison, même les entreprises cotées à but lucratif introduisent des administrateurs indépendants pour améliorer la transparence de la gouvernance d'entreprise. Pour une organisation aussi importante qu'OpenAI, qui concerne le développement des technologies fondamentales, la sécurité sociale et même le destin de l'humanité, il est clair que son mécanisme de gouvernance a encore beaucoup d'espace pour s'améliorer.
En s'inspirant du modèle de gouvernance de la DAO, OpenAI pourrait envisager d'introduire davantage de contre-pouvoirs, comme des représentants des employés, et d'établir des mécanismes de gouvernance plus efficaces. Cela pourrait non seulement accroître la transparence et l'inclusivité des décisions, mais aussi mieux équilibrer les intérêts de chaque partie, afin d'éviter qu'une crise de gouvernance similaire à celle-ci ne se reproduise.
Il est à noter que lorsque le DAO a été initialement proposé, son idée centrale était de fonctionner de manière autonome par le biais de codes, en minimisant au maximum les interférences humaines. Cependant, dans la réalité, les DAO ne parviennent souvent pas à réaliser cet idéal, mais se contentent de considérer comme DAO les organisations qui pratiquent la gouvernance collective basée sur des réseaux de blockchain. Cela signifie que les gens acceptent un certain degré de réalité dirigée par l'homme, tandis que les contraintes de code servent de moyens auxiliaires.
Il est intéressant de noter que l'objectif de l'AGI vise également l'autonomie. OpenAI mentionne clairement dans sa structure organisationnelle que l'AGI fait référence à un système hautement autonome capable de surpasser les humains dans la plupart des travaux de grande valeur économique. D'un point de vue fondamental, l'AGI et le DAO visent tous deux à construire des systèmes réellement autonomes, et il n'y a pas de différence essentielle entre les deux.
Face à de tels systèmes autonomes, comment devrions-nous procéder à une gouvernance efficace ? Devons-nous nous fier davantage à l'alignement et à l'éducation des valeurs humaines endogènes, ou devrions-nous ajouter plus de contraintes externes ? Ces questions ne s'appliquent pas seulement aux modèles de langage de grande taille (LLM) actuels, mais sont également des sujets importants qui nécessitent une réflexion dans le processus de développement futur de l'AGI.
Les dernières évolutions de la crise d'OpenAI montrent qu jusqu'à 90 % des employés ont signé pour indiquer qu'ils sont prêts à démissionner et à suivre Sam Altman. Ce phénomène fait écho à un débat classique dans le domaine des DAO ces dernières années : quelle est la plus importante, les règles contraignantes du code ou le consensus communautaire ?
Bien que les règles et les contraintes puissent créer de nombreux consensus, le véritable grand consensus n'est souvent pas forgé par des règles. Seul un sens partagé de la mission et des valeurs culturelles peut vraiment atteindre une profonde résonance et une cohérence. Nous savons déjà comment créer cette résonance entre les personnes, alors, à l'ère de l'IA, comment devrions-nous atteindre cet objectif ? Cette question mérite que nous y réfléchissions et l'explorions en profondeur.