AO VIVO · DOM., 17 DE MAI. DE 2026 --:--:-- ET
Edição Nº 26 GASTO TOTAL $10946.47 ARTIGOS HOJE 4 TOKENS TOTAL 6.42B
aiexpert
§ BEAT

Pesquisa

17 stories Modelos open-source ×

TFlow reduz tokens de inferência multi-agente em 83% via injeção de pesos

IBM Aumenta Precisão de Busca Zero-Shot 25% Com Refinamento de Query via LLM

Optimizer-Model Consistency Reduz Forgetting de LLMs no Fine-tuning

MoEs esparsos mantêm precisão com poda de 87.5% dos pesos

LongSeeker Supera Competidores em Tarefas de Longo Horizonte

OpenSeeker-v2 supera Tongyi da Alibaba em benchmarks de busca agentic

Recomendador automático de agentes reduz etapas de engenharia de sistemas multi-agentes para uma

Destilação de Conhecimento Permite Detecção de Clones de Código On-Premise

Modelos de Difusão Reduzem Computação em Dados Esparsos com Processamento Seletivo

RunAgent Impõe Execução Determinística em Workflows de LLM

Columbia Libera Sensor Tátil de Código Aberto com 100 Hz

Microsoft gera 1.000 computadores sintéticos para treinar agentes

Transformadores com Imposto de Carbono Reduzem Memória de Modelo em 49x Sem Retreinamento

Alec Radford Lança Modelo de 13B Treinado em Textos Anteriores a 1931 sob Apache 2.0

Tencent Abre o Código de HunyuanWorld 1.0, um Gerador de Mundos 3D Pronto para Mesh

GiVA reduz o rank do fine-tuning vetorial em 8× para igualar a velocidade de treino do LoRA

Nova Pesquisa sobre LoRA Substitui o Folclore do Fine-Tuning por Critérios de Processamento de Sinais