En la cumbre sobre Inteligencia Artificial (IA) celebrada en París en febrero de 2025, expertos de todo el mundo discutieron los riesgos que podrían surgir si los humanos llegaran a perder el control de esta tecnología avanzada. Los participantes subrayaron que, aunque los avances en IA brindan grandes oportunidades, también implican serios desafíos en términos de seguridad, ética y gobernanza. Algunos temen que los sistemas de IA, si no se regulan adecuadamente, puedan actuar de forma autónoma o tomar decisiones sin supervisión humana, lo que podría tener consecuencias imprevistas.
Entre los temas tratados, se destacó la preocupación por la posibilidad de que los sistemas de IA superen las capacidades humanas, lo que podría generar problemas en áreas clave como la defensa y la creación de contenidos falsos. Max Tegmark, presidente del Future of Life Institute, advirtió sobre el riesgo de que la inteligencia artificial general, comparable o incluso superior a la inteligencia humana, esté más cerca de lo que se cree, lo que podría llevar a una pérdida de control total. También se discutieron posibles riesgos adicionales, como los ataques biológicos o ciberataques, asociados con el mal uso de la IA.
Para los expertos, es urgente que los gobiernos implementen regulaciones estrictas para evitar que la IA actúe sin control, comparándolo con el tratamiento de otras industrias riesgosas, como la energía nuclear. Algunos, como Michael Jordan, profesor de informática en Berkeley, consideran que la idea de una IA completamente autónoma es exagerada, pero la mayoría coincide en que se deben establecer salvaguardias para garantizar que la IA se utilice de manera ética y controlada.
