15May2024

¿Cómo regular la IA?

Si en el punto medio está la virtud, las legislaciones sobre IA tienen especialmente difícil alcanzar el equilibrio entre sus beneficios y amenazas potenciales.

¿Cómo regular la IA?
Si algún término puede definir el enorme impacto de la IA es “evolución incierta”. Dependerá de múltiples factores cruzados, como el coste de su implantación empresarial, la disponibilidad de desarrolladores suficientes (la demanda supera con mucho la oferta) o la orientación de las normativas que intentan conciliar el control de unos riesgos sin precedentes con unos beneficios también inéditos.  Frente a ese complicado balance entre pros y contras, surgen posiciones que defienden desde el secretismo en su desarrollo para no favorecer el espionaje de potencias rivales, a la libertad del código abierto como impulso a su innovación y democratización, pasando por las llamadas a un control humano que permita moratorias o incluso la desconexión general de los sistemas IA.  Se considera la tecnología más influyente quizá desde la imprenta, con saltos cualitativos en sectores científicos, tecnológicos e industriales como la innovación de materiales de laboratorio, tratamientos médicos y el efecto motor para otras disciplinas digitales desde la computación a la programación de código. Será la tecnología exponencial por excelencia. Aunque las cifras sobre su impacto difieren, indican una mejora notable en automatización, eficiencia, productividad y por tanto actividad económica. No obstante, su principal aporte no serán tanto estos avances operativos como el cambio de paradigma en creatividad y “capacidad de idear”, como apunta el presidente de Microsoft. Algunas comparativas del MIT arrojan un 37% de incremento en la productividad de tareas de gestión. Por su parte, PwC augura un crecimiento del 14% de la economía mundial para 2030. Pero estas proyecciones no ocultan la, también enorme, preocupación por su uso irresponsable o directamente delictivo. El Foro Económico Mundial, por ejemplo, considera la desinformación generada por IA como el mayor riesgo para los próximos años, especialmente delicado en los ciclos electorales. Numerosas voces le quitan hierro al posible efecto negativo en el empleo, dicen que no es un fenómeno diferente a la irrupción de los ordenadores. Sin embargo, la velocidad de avance de la IA generativa deja escaso margen de tiempo para una adaptación progresiva.  Frente a sus diferentes riesgos —deep fakes, ciberseguridad, control social, uso abusivo de datos personales, sesgos discriminatorios, mala calidad de los datos, derechos de autor...— empiezan a negociarse regulaciones como el marco general de la europea, que deberá concretarse en directivas e instituciones específicas durante los próximos años. También Estados Unidos y China avanzan medidas regulatorias.   Aunque se trata de los primeros pasos, bastantes analistas anticipan que las normativas de estos tres grandes actores tenderán a reflejar su mentalidad, sus diferentes modelos sociales y los intereses económicos y geopolíticos. El reglamento europeo ya ha dejado clara su orientación garantista para proteger los derechos ciudadanos. Las iniciativas estadounidenses, aunque compartan esa preocupación, también priorizarán el beneficio y el liderazgo global de sus compañías tecnológicas. Las leyes chinas, además, tenderían al control político del sector, con menos miramientos a los derechos. Tanto Estados Unidos como China sólo han aprobado medidas o regulaciones parciales y habrá que ver hasta qué punto se cumplen tales predicciones. Todo indica que este año tomarán cuerpo estas y otras leyes. Si una palabra resalta en los análisis es “equilibrio” entre el control de riesgos y la libertad del desarrollo tecnológico. De hecho, un conocido chat consultado por un medio de comunicación destacaba ese difícil balance. Y algunos expertos, aunque saludan a la pionera regulación de la Unión Europea y esperan que otras regiones la imiten, también señalan que una supervisión excesiva de los algoritmos, auditorías incluidas, puede coartar la innovación de la IA europea y dejar expedito el liderazgo chino y estadounidense, una vez más. ¿Qué pueden hacer las empresas mientras tanto? Como la evolución de la IA generativa se acelera, las normativas siempre irán por detrás y por lo tanto algunas consultoras aconsejan analizar no solo las normativas aprobadas o en trámite, sino prever las futuras de acuerdo con esa evolución tecnológica y el tipo de sistemas IA que usa cada compañía. Una política corporativa de IA ética o responsable será imprescindible para establecer controles en aspectos como el procesamiento de información sensible de la propia organización y sus clientes; de hecho ya existen guías para conciliar las leyes de IA con las de protección de datos, por ejemplo. Los acuerdos de servicio con las empresas proveedoras para minimizar riesgos tenderán a ser habituales. Y también la formación de todos los empleados no solo en el manejo de las aplicaciones IA para su trabajo, sino en su uso ético y cumplimiento legal.
EMILIO ANTONIO CARRIZOSA

Agencia exclusiva nº 8142

Foto perfil agente

Añadir contacto a la agenda