§ BEAT
Investigación
TFlow reduce tokens de inferencia multi-agente 83% mediante inyección de pesos
IBM Aumenta Precisión de Búsqueda Zero-Shot 25% Con Refinamiento de Consulta Mediante LLM
Optimizer-Model Consistency Reduce el Olvido de LLMs en Fine-tuning
MoEs escasos mantienen precisión con poda del 87.5% de pesos
LongSeeker Supera a Competidores en Tareas de Largo Horizonte
OpenSeeker-v2 supera Tongyi de Alibaba en benchmarks de búsqueda agentic
Recomendador automático de agentes reduce pasos de ingeniería en sistemas multi-agentes a uno
La Destilación de Conocimiento Permite Detección de Clones de Código On-Premise
Modelos de Difusión Reducen Computación en Datos Dispersos con Procesamiento Selectivo
RunAgent Impone Ejecución Determinística en Flujos de Trabajo de LLM
Columbia Libera Sensor Táctil de Código Abierto con 100 Hz
Microsoft genera 1.000 computadoras sintéticas para entrenar agentes
Transformadores con Impuesto de Carbono Reducen la Memoria del Modelo en 49x Sin Reentrenamiento
Alec Radford Lanza Modelo de 13B Entrenado con Textos Anteriores a 1931 bajo Apache 2.0
Tencent Libera el Código de HunyuanWorld 1.0, un Generador de Mundos 3D Listo para Mesh
GiVA reduce el rango del fine-tuning vectorial en 8× para igualar la velocidad de entrenamiento de LoRA