Ante los posibles riesgos por el desarrollo de la Inteligencia Artificial (IA) –advertidos incluso por sus propios iniciadores- la Unión Europea (UE), así como otras naciones y distintas organizaciones internacionales se plantean la necesidad de legislar sobre su uso.
Así, de acuerdo con un artículo publicado en el diario español El País, la “Ley de Inteligencia Artificial” se enfoca principalmente en fortalecer las reglas sobre la calidad de los datos, la transparencia, la supervisión humana y la responsabilidad sobre esta tecnología. Asimismo, aborda cuestiones éticas y desafíos de implementación en varios sectores, que van desde la atención médica y la educación, hasta las finanzas y la energía.
LOS RIESGOS
Estados Unidos lidera ampliamente en términos de cantidad total de inversión privada en IA, con 47.400 millones de dólares en 2022, muy por encima de China, que se encuentra en segundo puesto con 13.400 millones de dólares y que solo ha ratificado tres leyes sobre IA desde 2016. El país norteamericano también encabeza la lista de número total de startups de IA, con casi el doble de empresas que la Unión Europea y el Reino Unido juntos, y 3,4 veces más que China, según la Universidad de Stanford.
“Nos adentramos en un territorio sin ley e inexplorado, lleno de oportunidades pero del que desconocemos todos los riesgos”, responde Pablo Haya, director en el Instituto de Ingeniería del Conocimiento (IIC), al ser consultado sobre el tema.
“La obtención y manipulación de estos datos puede tener implicaciones legales sobre los derechos de autoría, propiedad industrial, privacidad o protección de datos. Por ejemplo, con la regulación actual no es trivial responder a quién es el autor de una imagen generada por una IA”, observa.
En el sector tecnológico privado también hay consenso sobre la necesidad de regular la IA. Pablo Méndez, gerente de cuentas de Altia, alega que el motivo de la regulación se debe entender desde la base de que la IA es un software llamado a ejecutar tareas que, hasta hace poco, las realizaban los humanos.
Méndez reconoce que la pérdida de empleos y el abaratamiento masivo de servicios están entre los riesgos que se tienen que regular. “Del mismo modo que las leyes regulan lo que los humanos podemos o no hacer y las decisiones que podemos o no tomar, resulta necesario hacer lo mismo en el caso de las máquinas”, dice el ejecutivo.
AVANCE GALOPANTE
Un análisis del gigante tecnológico Intel refleja el acelerado (y preocupante para algunos) avance de la inteligencia artificial. Según la empresa, el entrenamiento de la IA creció más de cien millones de veces más rápido que la ley de Moore, el conocido postulado que afirma que la velocidad de los ordenadores se duplica cada dos años.
En este contexto, un grupo de más de 10.000 expertos firmó recientemente una carta abierta en la que se apelaba a todos los laboratorios de IA para que “pausen inmediatamente durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4″. El comunicado, firmado por personalidades tan relevantes como Elon Musk, Steve Wozniak o Yuval Noah Harari, asegura que la IA representa un “cambio profundo en la historia de la vida en la Tierra”, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes.
La Casa Blanca toma medidas
La Casa Blanca anunció esta semana nuevas medidas para incentivar la innovación responsable en inteligencia artificial (IA) y proteger los derechos y la seguridad de los ciudadanos.
La proliferación del uso de herramientas como chatbots, así como la capacidad de la IA para manipular e incluso falsear imágenes, ha empujado a Washington a intentar poner coto a la popularización de su uso, en vísperas del arranque de una nueva campaña electoral, la de 2024.
La vicepresidenta de EE UU, Kamala Harris, se reunió el jueves con los máximos responsables de Google, Microsoft, OpenAI y Anthropic, una start-up especializada en IA, para debatir sobre las posibilidades y los desafíos que presenta esta nueva realidad tecnológica. “El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense. Espero con impaciencia el seguimiento y la evolución en las próximas semanas”, destacó en un comunicado.
¿QUÉ ES?
La IA hace posible que las máquinas aprendan de la experiencia, se ajusten a nuevas aportaciones y realicen tareas como seres humanos.
El término inteligencia artificial fue adoptado en 1956.
Una de las técnicas más comunes es la red neuronal artificial. Un modelo matemático inspirado en la estructura y funcionamiento del cerebro. (Chat GPT-OpenAI).
RIESGOS
Elon Musk y recientemente Geoffrey Hinton, iniciadores de esta tecnología, han alertado ahora por su rápido desarrollo que podría generar:
Desinformación
Desempleo
Filtración de datos personales
Mayor desigualdad
BENEFICIOS
Bill Gates ve de manera más optimista el desarrollo de esta tecnología que –bien empleada- generaría:
Avances médicos y acceso a la salud.
Mejores técnicas en la agricultura.
Mayor cobertura en educación.
Herramientas para enfrentar el cambio climático.
PRODUCTOS CON IA QUE YA USAS
1. Los asistentes de voz, los compañeros más fieles: Siri o Alexa.
2. Los smartphones: todo al alcance de la mano.
3. La robótica en la vida cotidiana: las casas inteligentes.
4. El monitoreo de las redes sociales.
5. GPS y sistemas de geolocalización en el coche.
6. Comprar por Internet: el caso del E-commerce.
7. Ciberseguridad en la oficina
REGULACIÓN
31 Estados ya han aprobado por lo menos una ley relacionada con esta tecnología.
125 normas a nivel global se han decretado.
22 en Estados Unidos.
FRASE
“Nos adentramos en un territorio sin ley e inexplorado, lleno de oportunidades pero del que desconocemos todos los riesgos”
Pablo Haya
Director en el Instituto de Ingeniería del Conocimiento (IIC)