La creación de la Inteligencia Artificial (IA) representa un avance transcendental e innovador y tiene muchos propósitos, como el aprendizaje, el razonamiento, la percepción y la generación de piezas artísticas, musical o visual de forma casi inmediata.
Hace poco la reacción viral de Bad Bunny a una canción que utiliza su voz generada por Inteligencia Artificial despertó el debate sobre los límites que debe tener esta tecnología, específicamente en el área de la creación, el uso de imagen o la propiedad intelectual. También la reciente huelga de actores en Hollywood puso en jaque el uso de la IA en la industria del cine, al evitar que los estudios utilicen su imagen sin el pago de regalías.
Lea también: La Universidad de Montreal tiene cursos en línea gratuitos: Así puedes registrarte en la reconocida institución
Según Doménica Jaramillo, docente de Derecho de la Universidad Internacional SEK, en la actualidad no existe una normativa legal específica que regule el uso de la Inteligencia Artificial a nivel global. Sin embargo, se están desarrollando marcos regulatorios en varios países para abordar los desafíos éticos, de seguridad y de privacidad asociados con esta tecnología.
El CEO de OpenAI (desarrollador de ChatGPT), Sam Altman, reconoció frente al Senado de los Estados Unidos que es "crucial" que su industria sea regulada por el gobierno a medida que la IA se vuelve "cada vez más poderosa". A finales de octubre, el presidente Joe Biden emitió un decreto que exige a los desarrolladores de IA presentar los resultados de sus pruebas de seguridad cuando sus proyectos supongan "un grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud pública".
Lea también: Dolientes chinos usan inteligencia artificial para resucitar digitalmente a sus muertos
Si bien Ecuador no cuenta con las mayores industrias de la inteligencia artificial, y por ende la legislación ecuatoriana ha empezado a regular límites a su creación y evolución. Según Jaramillo, es necesario establecer definiciones precisas de términos clave relacionados con la IA para evitar ambigüedades y garantizar una interpretación común.
Por ello, la especialista recomienda considerar otros detalles como:
- Incluir principios éticos fundamentales que guíen el desarrollo y uso de la IA, como transparencia, protección de datos, responsabilidad legal, seguridad cibernética, equidad, participación ciudadana, educación e igualdad y no discriminación.
- Establecer mecanismos para determinar la responsabilidad en casos de decisiones perjudiciales o acciones indebidas y definir cómo se debe rendir cuentas por tales eventos.
- Exigir evaluaciones de impacto social antes de la implementación de sistemas de IA.