O AutoReGrot Ellms é realmente adiado? Analisando com o KeyBote de Yanne Lecun para o mais recente na AI Action Summit
Inteligência artificial

O AutoReGrot Ellms é realmente adiado? Analisando com o KeyBote de Yanne Lecun para o mais recente na AI Action Summit


Yann Lecun, canal AI da AI Ema e um dos pioneiros modernos da IA, disse recentemente grandes modelos de grandes idiomas (LLMS). Segundo ele, as oportunidades de produzir uma resposta adequada diminuíram para cada token, tornando -os tempo ilegalmente tempo, comunicação confiável de IA.

Enquanto eu respeito o trabalho do LECUN e o desenvolvimento da IA ​​e também mostro que algumas das reivindicações analisam outras coisas importantes para a maneira como os LLMs. Neste post, explicarei por que os modelos de autor-impaução não estão separados da natureza e como as técnicas são uma cadeia de tempos (ARQ) e para interagir com o parlossul parlosul de maneira eficaz.

O que é Autoryession?

Está em sua coluna, a forma da redução em um treinador que é treinado para produzir um token de cada vez. Dado o contexto de entrada, o modelo prevê o seguinte tumulto seguinte, alimentar em ordem na ordem e repete o itreiticamente. Isso permite que o modelo produza qualquer coisa, desde respostas curtas em todos os tópicos.

Para entrar no AutorgetSession, verifique nossas postagens técnicas mais recentes.

A produção de erros reciclados está?

As contradições de Lecun podem ser colhidas da seguinte forma:

  1. Definir C Como um conjunto de toda a perfeição de comprimento Ni.
  2. Definir A ⊂ c Como o texto eleitoral aceitável, lá U = c – um Você deve ser inaceitável.
  3. Permitir Arte[K] ser a conclusão do comprimento contínuo Pisso em P É aceitável (Arte[N] ∈ A. provável finalmente trabalhar).
  4. Pegue uma pessoa contínua E Como o erro são oportunidades de produzir o próximo token, o que é estressante Arte para U.
  5. Oportunidades para produzir os tokens restantes enquanto você acaba Arte em UM Naquela hora (1 – e) ^ (n – k).

Isso leva à conclusão de Lecun de que respostas por tempo suficiente, as chances de finalizar o poder de zero, sugerindo que os LLMs de autogrotos não têm leite.

Mas aqui está o problema: E nem sempre é.

Para dizer, o argumento de Lecun assume que as chances de um erro em cada um dos novos toques familiares. No entanto, o LLMS não funciona dessa maneira.

Como a probabilidade de permitir que os LLs superem esse problema, imagine que você está contando uma história: se você cometer um erro em uma frase, ainda poderá ajustar o seguinte para manter a seguir. O mesmo se aplica ao LLMS, especialmente quando estratégias como a cadeia de tempos (COT) incentiva a direcionar a melhor visualização novamente e recuperar seus resultados novamente.

Por que esse pensamento está com erro

LLMS Show As estruturas correcionais Isso os impede de entrar na entrada.

Pegar Cadeia de temperamento (COT)Promoção do modelo para produzir etapas centrais de consulta. O COT permite que o modelo processe muitas visualizações, aprimora sua resposta de reestruturação. De forma similar, Chain-Pedring (COV) Além disso, os métodos formais da resposta, como o ARQ, orientam o modelo para fortalecer uma saída válida e descartar erros.

Um pequeno erro no início do processo de geração não diz nada sobre a última resposta. No simplório, o LLM pode dobrar seu trabalho, voltar atrás e erros corretos em movimento.

Atenção às perguntas de imaginação (ARQ) por mudança de jogo

No Parlint, levamos este sistema de nosso trabalho Reconhecer as questões de pensar (Documento de pesquisa que descreve nossos resultados no momento no local de trabalho, mas o padrão de implementação pode ser testado em nosso código de fontes abertas). Os refugiados da ARQ Blueprints que estão ajudando o modelo a continuar a excelência das posturas mais altas no processo de acabamento, continuamente a delegação do desvio em um desvio. Use -o, conseguimos manter uma grande área de teste mostrando 100% variável na produção da terminação correta de tarefas complexas.

Essa abordagem nos permite atingir a maior precisão da compreensão da IA ​​e a conformidade com as instruções, o que tem sido importante para nós na realização de candidatos confiáveis ​​de conformidade.

Os modelos mensais estão aqui para ficar

Achamos que os LLMS AutoRegrass vão se afastar. Embora o cumprimento de uma forma longa seja um desafio, considerando a quantidade de um erro integrado ignore maneiras valiosas que reduz o solo-do raciocínio da cadeia de tempestres, como o ARQ.

Se você estiver interessado em IA e expandir a precisão dos agentes da entrevista usando o LLMS, sinta -se à vontade para verificar o recurso aberto para o código aberto do Slont. Vamos avançar como o LLM produziu e organizou informações.


Entregando a si mesmo: Os comentários e opiniões que foram mostrados neste artigo de turistas são os dos autores e não mostram uma política legal ou MarktechPost.


Yam Marcovitz é o Tech Eara e CEO da Autorant em Emcie. O gerente de software de informação possui informações extensas sobre o software e sistema de missão sensível, o Yam informa seu método exclusivo de desenvolver programas controlados e previstos e a IA entende.

✅ [Recommended] Junte -se ao nosso canal de telégrafo



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *