La Administración Biden ha dado un paso monumental en la regulación y supervisión de la Inteligencia Artificial (IA), presentando una orden ejecutiva que establece nuevos estándares y medidas para garantizar la seguridad, confiabilidad y protección contra sesgos involuntarios en el desarrollo y uso de sistemas de IA. En un esfuerzo por frenar posibles daños, especialmente en los avances tecnológicos emergentes, esta orden se desglosa en ocho categorías con un enfoque multifacético y proactivo.
Las acciones clave giran en torno a diversos aspectos. Por un lado, se busca imponer a las principales compañías de IA la obligación de compartir los resultados de sus pruebas de seguridad con el gobierno, enfatizando el desarrollo de nuevas herramientas para asegurar que los sistemas de IA sean seguros y libres de sesgos. Se habla de “cero defectos”, pero ojo, seamos realistas, no estamos hablando de programación perfecta, sino de reducir riesgos lo máximo posible. No esperemos que los robots sean perfectos, pero sí que hagan su trabajo sin generar caos.
La colaboración entre agencias gubernamentales y la industria privada es vital en este proceso. En esta interacción, se prevé que el Instituto Nacional de Estándares y Seguridad (NIST) juegue un papel crucial en el establecimiento de pautas de seguridad y pruebas de modelos de IA. Es como certificar la calidad de un producto antes de lanzarlo al mercado, solo que aquí estamos hablando de sistemas complejos que pueden tener un gran impacto en la sociedad.
El desafío no solo radica en la seguridad, sino también en la ética. No se trata solo de construir un robot bien armado, sino de garantizar que no cometa injusticias o discriminaciones involuntarias. El uso de IA en el sistema penal y otras áreas está bajo la lupa, con el objetivo de establecer prácticas justas y transparentes. Estamos hablando de darle un giro ético al uso de tecnologías que podrían influir en aspectos tan delicados como la libertad condicional o la vigilancia policial.
La recopilación y el uso de datos en el entrenamiento de estos sistemas también está siendo objeto de regulación. Aquí la idea es tener cuidado con la información que alimenta a estas supermentes electrónicas. Los datos que usan estas IAs para aprender son vitales, pero debemos estar seguros de que provienen de fuentes confiables. No queremos que nuestras IAs aprendan de fuentes dudosas, ¿verdad?
Esta orden llega después de compromisos voluntarios previos de gigantes tecnológicos, que equivalen a una especie de “autorregulación” que ahora se ve reforzada por una regulación más contundente por parte del gobierno. La orden ejecutiva es una manera de tomar un rol más activo en la supervisión de estas tecnologías, aunque todavía existe una incertidumbre sobre cómo se aplicarán y sancionarán las faltas a estas regulaciones. ¿Habrá multas? ¿Suspensiones? Todavía no tenemos claro cómo se llevará a cabo este papel de “policía” gubernamental en este mundo de inteligencia artificial.
A pesar de estas dudas, la Casa Blanca está convencida de que esta orden marca un hito importante en el establecimiento de medidas para asegurar la seguridad y confianza en la IA. No es algo sencillo, ya que estamos hablando de un mundo en constante evolución, donde la tecnología avanza a pasos agigantados. Esto es como ponerle un límite a un niño en un parque de atracciones. No queremos limitar la diversión, pero sí asegurarnos de que sea segura para todos.
La Administración Biden está abordando un asunto espinoso que afecta tanto a las grandes empresas de tecnología como a la sociedad en general. La IA es un campo sumamente prometedor, pero también puede ser un terreno peligroso si no se maneja con precaución. Esta orden busca no frenar la innovación, sino guiarla por un camino seguro y ético. Es un poco como darle riendas a un caballo desbocado, necesitamos control sin anular su energía.
Vamos que segun la Casa Blanca, esta orden es un paso adelante en la regulación y supervisión de la IA, estableciendo un marco de referencia más fuerte y detallado. Sin embargo, queda por ver cómo se implementarán y ejecutarán estas directrices, pero su importancia radica en que representan uno de los movimientos más significativos en materia de regulación de la IA hasta la fecha.
Puede que Skynet haya nacido… ya veremos