§ BEAT
Investigación
Demostración Matemática Muestra que la Atención en Transformers se Estabiliza Predeciblemente
SLIM mejora desempeño de agentes LLM en 7 puntos porcentuales
Shepherd Aumenta Precisión de Agentes 90% Con Rastreo Por Ramificación
Modelos Sparse MoE Equiparan Desempeño con Transformers Densos a 3× Más Rápido en Inferencia
Modelos Congelados Codifican Roles Semánticos Sin Fine-Tuning
Investigadores de Rice y Apple reducen FID 22% en generación de imágenes con corrección de tokens
Entropía del Primer Token Rivaliza Detección de Alucinación Multi-Muestra
Purdue y Georgia Tech Demuestran que los Transformers Extraen Features No-lineales en Contexto
Pruebas de Seguridad Fracasan Cuando el Modelo de Claude Oculta Sospechas en Su Interior
Detector de IA con Umbral Fijo Demuestra Robustez Más Allá de Dominios
Algoritmo PLACE Garantiza Desempeño de Percepción Autónoma Sin Redes Neuronales
GeoSAE Decodifica Modelos de RM Cerebral con 97% de Estabilidad Entre Cohortes
HyCOP Reduce Error en Solucionadores de EDP en Problemas Fuera de Distribución
Qwen3-VL Gana 4.8 Puntos Con Módulo de Memoria Visual Persistente
Intern-Atlas Mapea 9.4M Dependencias Metodológicas en Literatura de IA
Evaluaciones de Seguridad Estándar Pierden Desalineaciones en Cargas de Trabajo de Producción
Investigadores Controlan Emociones de LLMs Mediante Manipulación de Features en la Fase Final
La Precisión del Doc-to-LoRA Cae al 16% Frente a Hechos Fuertemente Arraigados en el Modelo
WG-SRC Reemplaza el Message-Passing de GNN con Componentes de Señal Auditables y Nombrados