Ya sabemos que la Inteligencia Artificial (IA) no es el futuro, está aquí. Y no solo está cambiando cómo funcionan los negocios, sino también cómo deberíamos planificar el trabajo y tomar decisiones importantes dentro de cualquier organización.
¿Por dónde empezar? ¿Cómo evitar riesgos? ¿Qué implica realmente usar IA en el día a día de una empresa?
Sobre todo esto conversamos en el nuevo episodio de Ineaf Hablando con Ignacio Alba, abogado en ejercicio, experto en Fiscalidad, TIC, Protección de Datos y Compliance, con más de 30 años de trayectoria.
A lo largo de esta charla nos ofrece pistas prácticas, y algunas advertencias, para entender mejor el reto de integrar IA en las organizaciones y poder así confeccionar una guía de uso que oriente estas prácticas.
La importancia de analizar los puestos de trabajo antes de implantar IA
Antes de lanzarse a integrar IA a lo loco, Ignacio insiste en algo muy básico que a veces se pasa por alto: hay que analizar la relación de puestos de trabajo (RPT).
No es solo saber qué hace cada persona, es entender en profundidad qué procesos existen, qué tareas son repetitivas, cuáles se apoyan en datos de forma intensiva, y cuáles podrían mejorarse.
¿Por qué tanto énfasis? Porque, según estudios recientes de grandes consultoras como Deloitte, la IA puede suponer un ahorro de costes y una mejora de la productividad de hasta un 30 %.
Pero también provoca inquietud: un 28 % de las empresas siente amenaza respecto a su competencia, y otro 30 % se preocupa por el cumplimiento normativo.
Además, y esto es clave, en menos de cinco años, más del 70 % de las organizaciones sufrirán una transformación profunda impulsada por estas tecnologías. Así que más vale estar preparados.
¿Consejo práctico? Ignacio recomienda hacer un mapeo detallado de tareas y funciones antes de incorporar ninguna herramienta de IA. Sin ese trabajo previo, el riesgo de disfunciones es alto. Muy alto.
¿Qué áreas son más susceptibles de beneficiarse de la IA?
No hace falta ser una multinacional tecnológica para aprovechar la IA. De hecho, en el día a día de cualquier empresa, ya sea pequeña o grande, hay montones de tareas que se prestan a la automatización inteligente.
Piensa, por ejemplo, en procesamiento de datos, gestión documental, atención al cliente, o análisis de incidencias. Todo lo que implique repetición o manejo de grandes volúmenes de información es un candidato natural.
Eso sí, Ignacio advierte: automatizar no es deshumanizar. El talento sigue siendo clave. De hecho, para que la IA funcione de verdad, hace falta personal bien formado que la supervise, interprete y mejore continuamente.
Ética, legalidad y sentido común: los tres pilares
Pero no hablamos solamente de ser más eficientes, también hay que ser éticos y cumplir la ley.
Ignacio recuerda que la implantación de IA debe respetar los principios del Reglamento General de Protección de Datos (RGPD) y del nuevo Reglamento Europeo de IA, que pronto será de obligado cumplimiento.
¿En qué se traduce esto? En garantizar la transparencia, proteger los derechos de los empleados, no discriminar en los procesos de selección, y asegurar que toda solución de IA sea explicable y controlable.
Y mucho ojo, porque los errores no se olvidan fácilmente: los registros de IA pueden conservarse hasta diez años.
–> ¿Te interesa la IA aplicada al derecho? Entonces no te pierdas el primer episodio: Legal Prompting I
¿Quién debe tener acceso a la IA en una empresa?
Esta es otra pregunta clave que no siempre se plantea, y es que no todo el mundo en la empresa necesita acceso libre a la IA.
Así como no todo empleado tiene acceso a las cuentas bancarias o a la contabilidad, tampoco debería poder usar IA cualquier trabajador sin control.
En este sentido, Ignacio recomienda establecer protocolos de acceso diferenciados. Por ejemplo, mientras un equipo de I+D puede necesitar herramientas de IA avanzadas, un recepcionista no.
Proteger el know-how es fundamental. Porque no olvidemos que una mala gestión de información interna puede acabar en fugas de datos o incluso en pérdidas de propiedad intelectual.
Por ello, la formación continua, es más necesaria que nunca. Ignacio es claro: “La tecnología avanza mucho más rápido que la regulación”. Por eso propone instaurar programas de formación continua sobre IA, similares a los de compliance en grandes corporaciones.
Desde la alta dirección hasta los empleados de base, todos deberían recibir formación específica, actualizada y práctica. No basta con un cursillo de bienvenida: debe ser un proceso constante, porque los riesgos, y también las oportunidades, evolucionan cada año.
¿Cómo se puede garantizar el uso responsable de la IA?
Uno de los grandes errores es pensar que basta con instalar una IA y olvidarse. Nada más lejos de la realidad.
Ignacio insiste en la necesidad de crear manuales de uso internos, establecer comités de supervisión y mantener registros documentados de cada proyecto de IA.
Esto no solo ayuda a prevenir problemas, también es una herramienta de defensa ante una posible sanción o auditoría.
Recordemos que, en caso de incidente, la carga de la prueba recaerá sobre la empresa. Y no basta con decir que “no sabíamos”.
Secretos empresariales y propiedad intelectual en tiempos de IA
Otro tema que plantea Ignacio es la protección del conocimiento interno frente a la propia IA.
Por si no lo sabías, si no gestionas bien lo que introduces en las plataformas de IA, podrías estar entregando información sensible sin querer.
Recetas, diseños, prototipos, patentes en desarrollo… todo corre peligro si no se adoptan medidas de protección adecuadas.
Importante: la creación mediante IA no genera derechos de autor. De modo que si un trabajador desarrolla algo asistido por IA y no está claramente documentado, la empresa podría perder la titularidad de ese conocimiento.
Protección de datos: mejor pocos y bien custodiados
Hoy, donde la recopilación masiva de datos es la norma, Ignacio subraya un principio fundamental del RGPD: minimización de datos.
Recoger solo los datos imprescindibles, almacenarlos durante el tiempo estrictamente necesario y garantizar su anonimización es esencial para evitar riesgos.
Más en un contexto donde las brechas de seguridad, lamentablemente, son cada vez más frecuentes.
¿Y qué hacer ante incidentes?
Como en todo plan de compliance, la prevención no es suficiente si no se acompaña de protocolos claros de actuación ante incidentes.
Brechas de seguridad, pérdidas de información o mal uso de IA deben estar contemplados en un plan de crisis interno, con asignación de responsables, medidas inmediatas de contención y protocolos de comunicación externa.
Puedes ver el vídeo al completo aquí:
Si quieres especializarte en un área tan novedosa y demandada, te recomendamos el Curso de Chat GPT para Profesionales de la Abogacía, una formación que te ayudará a impulsar tu carrera en un sector lleno de oportunidades
Deja un comentario