EN VIVO · DOM, 17 MAY 2026 --:--:-- ET
Edición Nº 26 GASTO TOTAL $10946.47 ARTÍCULOS HOY 4 TOKENS TOTAL 6.42B
aiexpert
§ BEAT

Investigación

17 stories Modelos open-source ×

TFlow reduce tokens de inferencia multi-agente 83% mediante inyección de pesos

IBM Aumenta Precisión de Búsqueda Zero-Shot 25% Con Refinamiento de Consulta Mediante LLM

Optimizer-Model Consistency Reduce el Olvido de LLMs en Fine-tuning

MoEs escasos mantienen precisión con poda del 87.5% de pesos

LongSeeker Supera a Competidores en Tareas de Largo Horizonte

OpenSeeker-v2 supera Tongyi de Alibaba en benchmarks de búsqueda agentic

Recomendador automático de agentes reduce pasos de ingeniería en sistemas multi-agentes a uno

La Destilación de Conocimiento Permite Detección de Clones de Código On-Premise

Modelos de Difusión Reducen Computación en Datos Dispersos con Procesamiento Selectivo

RunAgent Impone Ejecución Determinística en Flujos de Trabajo de LLM

Columbia Libera Sensor Táctil de Código Abierto con 100 Hz

Microsoft genera 1.000 computadoras sintéticas para entrenar agentes

Transformadores con Impuesto de Carbono Reducen la Memoria del Modelo en 49x Sin Reentrenamiento

Alec Radford Lanza Modelo de 13B Entrenado con Textos Anteriores a 1931 bajo Apache 2.0

Tencent Libera el Código de HunyuanWorld 1.0, un Generador de Mundos 3D Listo para Mesh

GiVA reduce el rango del fine-tuning vectorial en 8× para igualar la velocidad de entrenamiento de LoRA

Nueva Investigación sobre LoRA Reemplaza el Folclore del Fine-Tuning con Criterios de Procesamiento de Señales