§ BEAT
Pesquisa
TFlow reduz tokens de inferência multi-agente em 83% via injeção de pesos
IBM Aumenta Precisão de Busca Zero-Shot 25% Com Refinamento de Query via LLM
Optimizer-Model Consistency Reduz Forgetting de LLMs no Fine-tuning
MoEs esparsos mantêm precisão com poda de 87.5% dos pesos
LongSeeker Supera Competidores em Tarefas de Longo Horizonte
OpenSeeker-v2 supera Tongyi da Alibaba em benchmarks de busca agentic
Recomendador automático de agentes reduz etapas de engenharia de sistemas multi-agentes para uma
Destilação de Conhecimento Permite Detecção de Clones de Código On-Premise
Modelos de Difusão Reduzem Computação em Dados Esparsos com Processamento Seletivo
RunAgent Impõe Execução Determinística em Workflows de LLM
Columbia Libera Sensor Tátil de Código Aberto com 100 Hz
Microsoft gera 1.000 computadores sintéticos para treinar agentes
Transformadores com Imposto de Carbono Reduzem Memória de Modelo em 49x Sem Retreinamento
Alec Radford Lança Modelo de 13B Treinado em Textos Anteriores a 1931 sob Apache 2.0
Tencent Abre o Código de HunyuanWorld 1.0, um Gerador de Mundos 3D Pronto para Mesh
GiVA reduz o rank do fine-tuning vetorial em 8× para igualar a velocidade de treino do LoRA