Fuente: El Mercurio

Por Jaime Caiceo, Socio de consultoría en Data Analytics de EY. Profesor de los diplomados en Inteligencia de Negocios, y Big Data y Ciencia de Datos de Ingeniería UC.

A medida que aumenta el uso de inteligencia artificial (IA), también crecen los debates en torno a las consecuencias éticas, legales, sociales y económicas de todo este desarrollo y uso, por lo que empresas e instituciones están enfrentando el desafío de responder a las crecientes demandas por controles concretos y transparentes que puedan seguir el acelerado ritmo de evolución de estas tecnologías.

Es en este contexto que algunas organizaciones están definiendo sus propios marcos éticos y diversos gobiernos están estableciendo políticas y regulaciones más específicas para el uso ético de los datos y la IA. Chile no es ajeno a este proceso, tal como lo demuestra el trabajo que se ha venido desarrollando para definir la Política Nacional de Inteligencia Artificial por parte del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación. Esta política significará un importante avance, al contener los lineamientos estratégicos que deberá seguir el país en esta materia durante los próximos años.

Para que estos esfuerzos sean fructíferos, es relevante que las empresas y el mundo político logren alinear sus visiones. Pero en esta búsqueda de prioridades comunes es bastante probable que encontremos ciertos niveles de desconexión entre las miradas del sector público y privado, tal como lo demuestra un reciente estudio elaborado por EY en colaboración con The Future Society. Los resultados del estudio «Bridging AI´s trust gaps» revelan diferencias significativas en la forma en que ambos sectores ven el futuro de la ética, la gobernanza, la privacidad y la regulación de estas tecnologías.

Mientras el sector público muestra un amplio acuerdo respecto a principios éticos específicos, como la «imparcialidad y evitar prejuicios» y la «privacidad y los derechos de datos», el sector privado carece de consenso en esta materia, mostrando mayor cercanía al cumplimiento de normativas existentes, como el Reglamento General de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés), que a temas emergentes como la equidad y la no discriminación. Del mismo modo, tampoco existe consenso respecto a la dirección que debería tomar la gobernanza de la IA: el 38% de las organizaciones encuestadas esperan que sea el sector privado el que lidere un marco de partes interesadas, mientras solo el 6% de los encuestados del sector público está de acuerdo con ello. Esta desconexión plantea importantes retos y riesgos, especialmente para aquellas organizaciones que están desarrollando productos o servicios basados en IA, mientras las normativas y regulaciones aún se estén debatiendo.

La IA tendrá un efecto profundo en nuestras relaciones económicas, sociales y políticas, por lo que abordar sus implicancias éticas requiere plantearse preguntas complejas sobre sus posibles riesgos y consecuencias. En este escenario rebosado de interrogantes tenemos clara una realidad: la IA seguirá desarrollándose y es fundamental que analicemos y gestionemos de manera consensuada los cambios que traerá consigo.