El 7 de agosto pasado, el INTEC nombró Profesor Honorífico al periodista Miguel Antonio Franjul Bucarelly por su trayectoria y compromiso ético, lo cual enorgullece a esta comunidad académica. En su discurso, el también director del Listín Diario propuso que el INTEC lidere la creación de un Consejo Nacional de Ética en Inteligencia Artificial para garantizar una supervisión humana de la tecnología y avanzar en estas regulaciones donde el país está rezagado. Este artículo es un respaldo a esta invaluable idea y tiene como propósito contribuir con criterios que coadyuven a la universidad a llevar a cabo tan importante proyecto nacional, al cual quien suscribe se uniría con gran entusiasmo, como parte de la comunidad inteciana.
La búsqueda
del consenso
En las palabras del Profesor Honorifico del INTEC subyace el concepto de que la IA ha dejado de ser una promesa futurista para convertirse en una fuerza que remodela nuestra sociedad, nuestra economía y hasta nuestra forma de pensar. Sin embargo, su rápido avance ha traído consigo un conjunto de desafíos éticos que requieren de una atención urgente. A pesar de la falta de una regulación global unificada, existe un creciente consenso en torno a un conjunto de principios éticos para la IA. Este “ecosistema” de principios se basa en un diálogo multilateral entre organizaciones internacionales, universidades, centros de investigación, asociaciones empresariales, gobierno y la sociedad civil.
Los principios
para una ética de la IA
En el ecosistema internacional, organismos como la UNESCO han establecido la transparencia y explicabilidad, la justicia, equidad e igualdad, la proporcionalidad, la responsabilidad y la privacidad como pilares fundamentales. La visión es que la IA debe ser usada “para el servicio de la humanidad”. La OCDE también ha aportado principios influyentes, como la promoción de la seguridad y la rendición de cuentas. Además, el G7 ha impulsado un código de conducta para las empresas de IA, y el Consejo de Europa ha avanzado en un tratado vinculante sobre el tema. No obstante, las diferencias en la aplicación, la mayoría de los marcos coinciden en la necesidad de un enfoque basado en los derechos humanos y la mitigación de riesgos como el sesgo algorítmico y la discriminación. El objetivo es crear un marco de gobernanza que fomente la innovación de manera responsable. La universidad juega un rol importante como centro de generación del conocimiento y promotor del desarrollo tecnológico para la creación de un “ecosistema nacional”.
La ética en lo económico
En el plano económico, la IA está concentrada en un pequeño puñado de grandes empresas (las BigTechs) y economías avanzadas, principalmente Estados Unidos y China. Esta concentración de poder podría acentuar la brecha digital y la desigualdad global, dejando a los países en desarrollo en una posición de desventaja. La adopción de la IA también representa una reestructuración del mercado laboral; si bien algunos trabajos repetitivos y cognitivos corren el riesgo de desaparecer, se crearán nuevos roles que requerirán habilidades para operar y supervisar estos sistemas. La responsabilidad ética de las empresas, por tanto, es capacitar a sus empleados para que puedan adaptarse a este nuevo escenario y la universidad actuaría como el ente catalizador de ese proceso.
Cognición y educación
El impacto de la IA también se extiende al ámbito humano, afectando nuestra cognición y salud mental. La interacción constante con la tecnología puede remodelar nuestro cerebro, llevando a una mayor capacidad de filtrar información, pero también a una posible disminución de habilidades esenciales como la memoria y la atención a largo plazo. Se advierte sobre el uso “pasivo” de la IA, que reemplaza el pensamiento humano, en contraposición al uso “activo”, que lo amplifica y promueve el pensamiento crítico y la creatividad.
En el campo de la educación, la IA presenta oportunidades para la personalización del aprendizaje, pero también dilemas. La proliferación de herramientas de IA generativa ha obligado a los educadores a replantearse el concepto de “integridad académica”. En lugar de prohibirlas, se sugiere que la solución es enseñar a los estudiantes a usarla de manera ética, promoviendo la autoría genuina y la transparencia sobre su uso. Se subraya que el ser humano debe permanecer en el centro del proceso educativo, utilizando la tecnología como una herramienta que potencie el aprendizaje.
La gobernanza de la IA
Finalmente, se abordan las amenazas de la IA al tejido social y a la democracia. La capacidad de crear “deepfakes” y el uso del “micro-targeting” para difundir información falsa y polarizadora durante las campañas electorales, dirigida a audiencias específicas, representa una forma de manipulación que socava la confianza pública. Además, el uso de la IA para la vigilancia masiva plantea serios riesgos para la privacidad y las libertades civiles. La necesidad de una “gobernanza de la IA” que nos lleve a una respuesta a estos desafíos no es solo tecnológica, sino que requiere una colaboración activa, una mayor alfabetización digital y la creación de un marco regulatorio inclusivo que garantice que la IA beneficie a toda la población de nuestro país. Es aquí, como lo establece la propuesta del director del Listín Diario, donde la universidad debe jugar un rol protagónico.
El autor Coordinador de la Maestría en Ciencia de Datos del INTEC
renato.gonzalez@intec.edu.do