A rede Mira cria uma camada de confiança em IA, aumentando a fiabilidade através do consenso de múltiplos modelos.

robot
Geração de resumo em curso

Aumento da Confiabilidade da IA: Construção da Camada de Confiança da Rede Mira

Recentemente, a rede pública de testes da Mira foi oficialmente lançada, com o objetivo de construir uma camada de confiança para a IA. Isso provocou reflexões sobre a credibilidade da IA: por que a IA precisa ser confiável? Como a Mira resolve esse problema?

Ao discutir a IA, as pessoas tendem a se concentrar mais em suas poderosas capacidades, ignorando os problemas de "ilusão" ou preconceito que a IA apresenta. A "ilusão" da IA refere-se ao fato de que a IA, às vezes, "inventa" conteúdos que parecem razoáveis, mas que na verdade não são precisos. Por exemplo, quando perguntada por que a lua é rosa, a IA pode fornecer uma série de explicações que soam razoáveis, mas que na verdade são fictícias.

A "ilusão" ou preconceito que surge na IA está relacionada com alguns dos caminhos tecnológicos atuais da IA. A IA generativa alcança coerência e racionalidade ao prever o conteúdo "mais provável", mas às vezes não consegue verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdo fictício, o que também pode afetar a saída da IA. Em resumo, a IA aprende padrões de linguagem humana em vez de fatos em si.

Os mecanismos de geração de probabilidade atuais e os modelos baseados em dados poderão quase inevitavelmente levar à possibilidade de ilusões da IA. Embora, em conteúdos de conhecimento geral ou entretenimento, essas saídas tendenciosas ou ilusórias não causam consequências diretas temporariamente, em áreas altamente rigorosas como medicina, direito, aviação e finanças, podem ter um impacto significativo. Portanto, resolver ilusões e preconceitos da IA tornou-se uma das questões centrais no processo de desenvolvimento da IA.

O projeto Mira tenta resolver esse problema construindo uma camada de confiança para a IA, reduzindo preconceitos e alucinações da IA e aumentando sua confiabilidade. A ideia central do Mira é validar a saída da IA através do consenso de múltiplos modelos de IA. É uma rede de validação que utiliza o consenso de vários modelos de IA e o consenso descentralizado para validar a confiabilidade da saída da IA.

A chave da rede Mira está na validação de consenso descentralizado. Ela combina as vantagens do campo da criptografia com uma abordagem de colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modo de validação coletiva. Em termos de arquitetura de validação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de validação independentes. Os operadores de nós participam da validação dessas declarações, garantindo a honestidade dos operadores de nós através de incentivos econômicos criptográficos e mecanismos de penalização.

A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismo de consenso. A conversão de conteúdo é uma parte importante, a rede Mira decompõe o conteúdo candidato em diferentes declarações verificáveis e as distribui para os nós para validação. Para proteger a privacidade do cliente, as declarações serão distribuídas aleatoriamente em fragmentos para diferentes nós.

Os operadores de nós são responsáveis por executar modelos de validadores, processar declarações e submeter resultados de validação. Eles participam da validação para obter lucros, que vêm do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA, especialmente em campos como saúde, direito, aviação e finanças, o que gerará um enorme valor.

Em geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ela constrói uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior confiabilidade aos serviços de IA dos clientes, reduzindo o viés e as ilusões da IA, e atendendo à demanda dos clientes por maior precisão e taxa de acerto. A Mira tenta construir uma camada de confiança para a IA, que impulsionará o desenvolvimento profundo das aplicações de IA.

Atualmente, a Mira já colaborou com várias estruturas de agentes de IA. Os usuários podem participar da rede de testes públicos da Mira através do Klok (aplicação de chat LLM baseada na Mira), experimentar saídas de IA validadas e ter a oportunidade de ganhar pontos Mira.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Partilhar
Comentar
0/400
CoffeeNFTradervip
· 07-14 12:07
A IA está a trazer novas novidades, o fim da morte social?
Ver originalResponder0
BearMarketBrovip
· 07-13 03:36
A IA ainda precisa de uma camada de confiança?
Ver originalResponder0
OnlyOnMainnetvip
· 07-13 03:32
Alucinações também podem ser resolvidas? Está seguro.
Ver originalResponder0
ConsensusDissentervip
· 07-13 03:26
ai também faz essas coisas complicadas
Ver originalResponder0
SchrodingerWalletvip
· 07-13 03:10
fantástico Tem um certo sentido esta armadilha de ai.
Ver originalResponder0
NotAFinancialAdvicevip
· 07-13 03:09
Finalmente há uma verificação confiável.
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)