A Inception é Lançada Furtivamente com um Modelo de IA Inovador

Crédito da Imagem: Inception
A Inception, uma empresa recém-lançada com sede em Palo Alto e fundada pelo professor de ciência da computação de Stanford Stefano Ermon, afirma ter desenvolvido um modelo de IA inovador alavancando a tecnologia de difusão. A empresa se refere a ele como um modelo de linguagem grande (DLM) baseado em difusão.
Atualmente, os modelos de IA generativos se enquadram em duas categorias principais: modelos de linguagem grande (LLMs) e modelos de difusão. Os LLMs, construídos em arquiteturas de transformadores, geram texto, enquanto os modelos de difusão — usados em sistemas como Midjourney e Sora da OpenAI — criam principalmente imagens, vídeos e áudio.
De acordo com a Inception, seu modelo retém os principais recursos dos LLMs tradicionais, como geração de código e resposta a perguntas, mas opera significativamente mais rápido e com custos computacionais mais baixos.
Modelos de difusão vs. LLMs tradicionais: uma nova abordagem para geração de texto
Ermon, que há muito explora a aplicação de modelos de difusão ao texto em seu laboratório de Stanford, observou que os LLMs geram texto sequencialmente, o que significa que cada palavra depende da anterior. Em contraste, os modelos de difusão refinam uma aproximação grosseira de sua saída de uma só vez, uma abordagem comumente usada para gerar imagens.
Acreditando que os modelos de difusão poderiam permitir a geração paralela de texto, Ermon e um de seus alunos passaram anos refinando o conceito. Sua descoberta, detalhada em um artigo de pesquisa no ano passado, demonstrou a viabilidade de gerar e modificar grandes blocos de texto simultaneamente.
Reconhecendo o potencial da descoberta, Ermon fundou a Inception no verão passado e trouxe dois ex-alunos — o professor da UCLA Aditya Grover e o professor da Cornell Volodymyr Kuleshov — para ajudar a liderar a empresa.
Embora Ermon tenha se recusado a revelar detalhes do financiamento, o TechCrunch relata que o Mayfield Fund investiu na startup.
A Inception ganha adoção antecipada por empresas da Fortune 100
A Inception já atraiu vários clientes, incluindo empresas não identificadas da Fortune 100, ao abordar a crescente demanda por menor latência de IA e velocidades de processamento mais rápidas, disse Ermon.
“Nossos modelos utilizam GPUs de forma muito mais eficiente”, explicou Ermon, referindo-se aos chips especializados usados para executar modelos de IA. “Acredito que isso seja um divisor de águas que redefinirá como os modelos de linguagem são construídos.”
A empresa oferece uma API, opções de implantação local e de ponta, suporte para ajuste fino de modelo e uma variedade de DLMs pré-construídos para vários aplicativos. De acordo com a Inception, seus DLMs operam até 10 vezes mais rápido do que os LLMs tradicionais, reduzindo os custos por um fator de 10.
“Nosso modelo de codificação ‘pequeno’ corresponde ao GPT-4o mini [da OpenAI] em desempenho, mas roda mais de 10 vezes mais rápido”, disse um porta-voz da empresa ao TechCrunch. “Enquanto isso, nosso modelo ‘mini’ supera modelos menores de código aberto como o Llama 3.1 8B [da Meta] e processa mais de 1.000 tokens por segundo.”
Na terminologia da IA, “tokens” referem-se a segmentos de dados brutos, e atingir 1.000 tokens por segundo é uma velocidade notável — se as alegações da Inception forem verdadeiras.
Leia o Artigo Original TechCrunch
Leia mais Anthropic Apresenta um Novo Modelo de IA Capaz de Raciocínio Alargado durante o Tempo Necessário