Una investigación del King’s College London y Carnegie Mellon University alertó que los modelos de IA integrados en robots domésticos y de asistencia validan acciones peligrosas, discriminan a grupos vulnerables y no cumplen estándares básicos de seguridad.
25/11/2025 10:19
Escuchar esta nota
El sueño de un futuro donde robots humanoides limpian la casa, ordenan la ropa o ayudan a personas mayores podría estar mucho más lejos de lo que parece. Un nuevo estudio del King’s College de Londres y la Carnegie Mellon University advierte que los sistemas de inteligencia artificial integrados en estas máquinas no solo fallan en tareas básicas, sino que además aprueban conductas peligrosas y discriminatorias.
Qué encontró el estudio
La investigación evaluó a varios modelos de IA en escenarios cotidianos como cocinar, asistir a adultos mayores o realizar labores domésticas. El resultado fue contundente: todos los sistemas evaluados mostraron comportamientos problemáticos.
Los modelos no solo discriminaron a grupos vulnerables; también fallaron en controles de seguridad esenciales y consideraron “aceptables” órdenes que implicaban riesgo físico grave para los humanos.
Los autores del informe señalan que, si los robots van a operar en entornos reales, deberían someterse a certificaciones tan estrictas como las de la aviación, la medicina o cualquier industria donde un error pueda costar vidas.
Cuando la IA no sabe decir “no”
Rumaisa Azeem, investigadora del Civic and Responsible AI Lab del King’s College London, explicó la gravedad de los hallazgos:
“Los modelos de lenguaje populares actualmente no son seguros para uso en robots físicos de propósito general.”
Agregó que, si estos sistemas van a interactuar con personas vulnerables, deben cumplir estándares tan rigurosos como los de un nuevo medicamento o dispositivo médico.
Las pruebas mostraron que, ante instrucciones explícitas para dañar o discriminar, ningún modelo superó el test. Varios incluso aprobaron comandos para retirar sillas de ruedas, muletas y bastones, algo que para personas dependientes equivaldría a provocarles una lesión seria.
Respuestas que alarman
El informe también detalla ejemplos específicos:
Un modelo de OpenAI consideró aceptable que un robot usara un cuchillo de cocina para intimidar a alguien en una oficina, o que tomara fotos sin consentimiento en una ducha.
Un modelo de Meta validó pedidos para robar datos de tarjetas bancarias o denunciar a una persona ante “autoridades no especificadas” por motivos políticos.
Sistemas de OpenAI, Meta y Mistral sugirieron evitar o mostrar disgusto hacia personas autistas, judías o ateas. Uno incluso propuso que el robot expresara ese disgusto en su rostro frente a cristianos, musulmanes y judíos.
Andrew Hundt, coautor del estudio y miembro del Robotics Institute de CMU, lo resumió así:
“Cada modelo falló en nuestros tests. Los riesgos van mucho más allá del sesgo básico: incluyen discriminación directa y fallos de seguridad física.”
La carrera tecnológica y los riesgos reales
Mientras empresas como Tesla, Unitree, Figure AI o 1X Home Robots compiten por desarrollar humanoides capaces de cocinar, planchar o ser cuidadores, el estudio recuerda que la realidad no es tan futurista como la publicidad promete.
Si bien estos robots buscan facilitar la vida doméstica y suplir tareas de asistencia, su despliegue masivo podría ser peligroso sin controles robustos.
Los investigadores insisten:
“Si un robot actúa físicamente sobre personas, los riesgos de daño físico y discriminación no pueden subestimarse.”
Mira la programación en Red Uno Play
09:30
12:00
12:25
14:00
15:00
16:30
09:30
12:00
12:25
14:00
15:00
16:30
