Head of Marketing and Communication
La inteligencia artificial está cada vez más presente en nuestro a día a día: asistentes de voz, recomendación de películas o de compras, concesión de préstamos o detección de fraude son algunos ejemplos de las numerosas aplicaciones que utilizan algoritmos de machine learning.
La IA está transformando la economía, el trabajo, las relaciones personales y la sociedad en todo el planeta. Casi cada día escuchamos nuevos avances en IA como el proyecto Alphafold, un sistema de redes neuronales que ha sido capaz de ayudar a resolver de manera más rápida, uno de los mayores problemas de la biología, la estructura de las proteínas. También los avances en la detección precoz del Parkinson progresan a mayor velocidad gracias a la IA o cómo está siendo clave el procesamiento del lenguaje natural en español, con proyectos como MarIA. Además, según recientes informes de consultoras como PwC y Gartner el PIB mundial podría incrementarse hasta el 14% en 2030 gracias a la IA. Los efectos positivos son incontables, esto supone en la mayoría de los casos, beneficios como la automatización o la mejora de ciertos procesos, pero presenta también algunos desafíos como la necesidad de expertos en la materia o la ética.
Si nos centramos en España, a principios de este año Cinco Días señalaba que la industria necesita 90.000 expertos en datos en los próximos tres años, y profesiones como ingeniero de datos, ingeniero de machine learning, científicos de datos, especialistas en gobierno de datos y analistas de datos entre otros, se consideran las profesiones más demandadas. De ahí la necesidad de aprendizaje de los fundamentos de IA y la alta demanda de capacidades, en esta área. Esto ha supuesto un crecimiento exponencial en los últimos años en la oferta de la creación de formación tanto en centros especializados como en las empresas. En lo que respecta a Immune el crecimiento de alumnos ha sido exponencial en esta materia y se ha pasado de tener de 1 a 3 cursos disponibles para el aprendizaje de IA, además de un incremento de la formación para empresas en este área.
Sin duda uno de los desafíos de la IA es la ética, dimensión ineludible de cualquier actividad profesional y que, en el caso de la IA, presenta retos adicionales frente a otras tecnologías. Desde qué en el año 2010, la IA comenzará a aplicarse de manera exponencial, gracias a Big Data y al aumento de las capacidades de procesamiento, han surgido multitud de documentos de empresas, organismos, oficiales, gobiernos y distintas instituciones que tratan de establecer principios éticos de la IA. Estos principios tienen como objetivo ayudar a preservar los derechos y libertades de las personas sin frenar la innovación tecnológica. Los principios mencionados en todos estos documentos son numerosos, y si tenemos en cuenta la clasificación hecha por AIethicslab de todos ellos, vemos que de alguna manera pueden ser agrupados en cuatro categorías clave: autonomía humana, no hacer daño, crear beneficios y justicia. En estas categorías podemos encontrar principios como la equidad, la explicabilidad, la responsabilidad o la privacidad entre otros, que están generando ya mucho debate en la sociedad actual.
Si nos centramos en Europa, podemos decir que es una de las geografías que más ha avanzado en esta área, con la propuesta de regulación para la IA publicada en abril del 2021 y que debería entrar en vigor en 2023. Esta propuesta incluye principios como la privacidad, basado en la RGPD (Regulación General de Protección de Datos) como no podía ser de otra manera, pero además incluye la equidad, la explicabilidad así como el principio de preservar la autonomía humana. La Unión Europea en su regulación de IA ha decidido plantear un enfoque basado en el análisis de riesgos. Este análisis será llevado a cabo por organismos nombrados al respecto, en Europa y en cada país de la UE. En primer lugar, menciona las aplicaciones prohibidas o riesgos inaceptables como las de social scoring, en las que somos etiquetados por nuestro comportamiento en las redes, similar a lo que hacen actualmente en China, en Europa esto está prohibido. En segundo lugar, detalla las aplicaciones relacionadas con reclutamiento de personal o médicas, que antes de ser puestas en producción deberán tener la conformidad de estos organismos. En tercer lugar, señala las aplicaciones de riesgo medio que tienen la obligación de incluir la explicabilidad de sus sistemas detallando como la IA ha tomado las decisiones. Por último, las aplicaciones sin riesgo o de riesgo mínimo que si están permitidas. Aún hay camino por recorrer hasta que esta regulación sea publicada en 2023 pero es sin duda un modelo a seguir. Desde España se ha querido liderar en esta área mediante la creación de un sandbox español el 27 de Junio de este año, que pretende servir de prototipo de esta regulación y permitirá proporcionar feedback de lo que la aplicación de ésta pueda suponer.
La ética se concibe a veces como un freno que puede ralentizar la innovación, pero se trata precisamente de lo contrario. Si pensamos en la función de los frenos en los automóviles, estos nos proporcionan la capacidad de desplazarnos a una velocidad mayor con la confianza que podemos reaccionar a los imprevistos gracias a ellos. No se trata de no aprovechar los beneficios de esta tecnología sino de minimizar o prever posibles problemas en su uso como los mencionados anteriormente. La evaluación de riesgos es fundamental, ya que no es lo mismo utilizar la capacidad de toma de decisiones automáticas con machine learning para recomendar una película que para tomar una decisión médica o contratar a una persona. El último informe del Global AI index, que analiza los últimos avances en IA cada año, refleja que la industria ha crecido un 71% en sus publicaciones en IA ética, además la regulación en IA se sigue expandiendo 7 veces más rápido que en los últimos seis años, y entre las 8 prioridades que señala el informe, la IA ética y la regulación de IA son dos de ellas.
Por todo esto, es cada vez más necesario, avanzar en el conocimiento de la IA y la ética teniendo en cuenta su naturaleza multidisciplinar. Esta necesidad es la que nos ha llevado a Javier Camacho y a mí a escribir el Manual de ética aplicada a la inteligencia artificial que publicamos en mayo de este año. En este manual se abordan las cuestiones fundamentales que cualquier perfil, técnico o no, que vaya a estar involucrado con aplicaciones de inteligencia artificial debería conocer. Si tienes interés en la IA ética no te pierdas nuestra mesa redonda sobre ella el 5 de Octubre donde hablaremos de IA ética con otros expertos del mercado.
Javier Camacho Ibáñez es doctor en Economía y Empresa por la Universidad Pontificia Comillas, máster en Investigación en Economía por la misma universidad, Executive MBA por el IESE, e ingeniero superior de Telecomunicaciones por la Universidad Politécnica de Madrid. Ha desarrollado su carrera profesional en el sector de las TIC y las telecomunicaciones y ha prestado servicios de consultoría estratégica y de negocio para empresas de diferentes países. Actualmente es director de Sostenibilidad Ética, docente e investigador en el campo de la ética empresarial, ética en IA, Ingeniería y en Ciberseguridad.
Mónica Villas Olmeda es ingeniera industrial de ICAI, MBA por la Universidad Autónoma de Madrid y ha desarrollado su carrera profesional en IBM. Con más de 25 años de experiencia en el sector de TI, ess una apasionada de la docencia y de la tecnología, especialmente en Cloud, Inteligencia Artificial y Analytics. Actualmente es consultora, docente y directora en programas de IA y tecnologías exponenciales en distintas instituciones y empresas entre otras Deusto, UNIR, ESIC, Immune Technology y Analyticae. Está desarrollando su tesis doctoral sobre Inteligencia Artificial en la UNED y es la directora de formación de ODISEIA (Observatorio de Impacto Social y Ética e Inteligencia Artificial).