Tecnología

Proyecto que busca regular Inteligencia artificial en Chile “puede limitar la generación de nuevas ideas, dejándonos atrás en esta revolución”

Pablo Senosiain, Gerente General de Notus a Matrix Consulting Company, considera que el proyecto, tal como está, generará trabas importantes.

Inteligência Artificial
Inteligência Artificial (Reprodução / Freepik)

En abril de este año se ingresó a la Cámara de Diputados de Chile un proyecto de ley que busca regular los sistemas de inteligencia artificial, robótica y tecnologías conexas en sus distintos ámbitos de aplicación para así hacer frente a la masiva irrupción de estas.

PUBLICIDAD

Frente a esto, en Notus, empresa especializada en desarrollo de software e inteligencia artificial y que pertenece a la consultora estratégica Matrix Consulting, creen que el proyecto de la ley, que hoy se encuentra en primer trámite constitucional, define de manera excesivamente amplia a los sistemas de Inteligencia artificial.

Esta definición combinada con la idea de que todo desarrollo, utilización y comercialización de estos sistemas debe ser autorizada por la comisión nacional de Inteligencia Artificial, “podría generar trabas importantes al emprendimiento en este campo y limitar la generación de nuevas ideas, dejándonos atrás en esta revolución”, afirma Pablo Senosiain, Gerente General de Notus.

Inteligencia Artificial
Inteligencia Artificial Imagen genérica

Están poniendo demasiados límites

Opinión que es compartida por Luis Felipe Ross, socio de Matrix Consulting, “debemos fomentar el desarrollo de esta tecnología en forma responsable y no limitarlo. Este es un cambio fundamental, una disrupción cuyos impactos aún no podemos visualizar, pero no podemos darnos el lujo de quedar fuera de juego.”

Por ahora, en Notus creen que lo más lógico y urgente, es centrarse exclusivamente en lo que el proyecto define como sistemas de alto riesgo o riesgo inaceptable.

“Es nuestra oportunidad de revisar los lineamientos que han tenido otras regiones del mundo, como la Unión Europea, y acomodarlos a nuestras propios requerimientos sin fomentar las restricciones excesivas al desarrollo”, sentencia Pablo.

Inteligencia artificial
¿Cómo funciona la inteligencia artificial que puede leer tu mente?. Imagen referencial

Sobre el proyecto

La iniciativa distingue los Sistemas de IA entre sistemas de riesgo inaceptables y sistemas de alto riesgo.

PUBLICIDAD

En este sentido, establece que los Sistemas de Inteligencia Artificial que utilice técnicas subliminales para alterar el comportamiento de una persona, aprovechen vulnerabilidades de grupos específicos de personas, o sean utilizados por las autoridades públicas para evaluar o clasificar la fiabilidad de personas naturales, podrían ser considerados Sistemas de Inteligencia Artificial de Riesgo Inaceptable.

También se consideran en esta clasificación, aquellos sistemas de identificación biométrica en tiempo real o diferido en espacios de acceso público, salvo ciertas excepciones indicadas en el mismo proyecto.

Por otra parte, serán calificados como Sistemas de IA de Alto Riesgo, los destinados a utilizarse en la identificación biométrica remota en tiempo real o diferido de personas en espacios privados; la utilización en gestión del suministro de agua, electricidad y gas; la asignación y determinación del acceso a establecimientos educacionales y la evaluación de estudiantes; la selección y contratación de personas en trabajos; la asignación de tareas y el seguimiento y evaluación del rendimiento y la conducta de trabajadores; la evaluación de la solvencia de personas o establecer su calificación crediticia, entre otros.

La revolución de la Inteligencia Artificial y la psicología.
¿Terapia psicológica? La Inteligencia artificial podría reemplazar a los psicólogos. (Pexels)

Comisión Nacional de Inteligencia Artificial

La propuesta establece la creación de un nuevo organismo: Comisión Nacional de Inteligencia Artificial, que será responsable de pronunciarse sobre las solicitudes de autorización presentadas por los desarrolladores, proveedores y usuarios de sistemas de IA, así como desarrollar recomendaciones para mejorar la regulación de los sistemas de IA.

Cabe destacar, que el proyecto dispone una serie de obligaciones y responsabilidades para los desarrolladores, proveedores y usuarios de sistemas de IA: específicamente los desarrolladores serán responsables de garantizar que los sistemas de IA sean seguros, fiables y transparentes en su funcionamiento, además de respetar los derechos humanos y las libertades fundamentales en su diseño y desarrollo. Los proveedores por su parte, deberán asegurarse de que los sistemas de IA que comercialicen o distribuyan cumplan con las normas establecidas por la ley, y los usuarios deberán utilizar los sistemas de IA de manera responsable y ética.

PUBLICIDAD

Tags


Lo Último