Luciano Ahumada - BíoBío Valparaíso
“Típicamente ahora uno asocia inteligencia artificial al ChatGPT o a Copilot, a estos programas que mucha gente ocupa y que sirven mucho. Pero en realidad la inteligencia artificial la vemos en el día a día. Cuando tú estás viendo un streaming, por ejemplo, y te aparece una recomendación, eso probablemente viene de técnicas algorítmicas que infieren cuáles podrían ser tus gustos. También está en los vehículos autónomos, en los diagnósticos médicos, en las recomendaciones de tus aplicaciones favoritas. La IA es mucho más cotidiana de lo que creemos y ha estado presente desde hace mucho tiempo, aunque muchos no la usen de forma directa”.
“La legislación que se está trabajando ahora no prohíbe ni impulsa tecnologías específicas, sino que las categoriza según su nivel de riesgo. Hay usos sin riesgo evidente, otros de riesgo limitado, alto riesgo e inaceptables (…) Los de alto riesgo, por ejemplo, son aquellos donde una falla puede afectar derechos fundamentales, como sistemas de IA en servicios de gas, agua o salud. Y los inaceptables son aquellos ligados a la manipulación subliminal o a la vulneración de derechos humanos. Es decir, cuando la tecnología actúa de manera imperceptible o explota características personales sin consentimiento”.
“Cuando hablamos de regulación tecnológica siempre aparecen dos posturas: una dice que limita la innovación; la otra, que solo establece las reglas básicas del juego. Yo diría que esta normativa busca eso: definir un lenguaje común para que cualquiera pueda crear soluciones de forma responsable. Es como la norma que dice cuánta sal puede tener el pan: no frena la innovación, pero fija condiciones mínimas. Lo importante será cómo se fiscaliza, porque aplicará tanto a creaciones chilenas como extranjeras que operen en el país”.