Introducción
No es solo una pregunta teórica. A medida que se insta a las empresas a adoptar la Inteligencia Artificial, todos estamos entrando en un nuevo territorio legal y moral, donde las máquinas pueden tomar decisiones, pero son las personas las que pagan las consecuencias.
Nuestro equipo acaba de regresar de una importante feria y conferencia mundial en Londres. Cada año enviamos a algunos de nuestros compañeros más brillantes a estos eventos, no para exhibir, sino para recargar su creatividad, descubrir nuevas perspectivas y aprender de forma práctica. Este año enviamos a 6 de nuestros mejores compañeros y, sin duda, la gran tendencia fue la IA.
Como la IA es un tema popular, y sin duda ha venido para quedarse, queremos compartir nuestra perspectiva sobre lo bueno, lo malo y lo preocupante.
Cómo se Está Utilizando la IA en Salud y Seguridad Laboral
La Inteligencia Artificial ya no es solo una palabra de moda en los círculos tecnológicos: ahora está llegando silenciosamente (o no tanto) al sector de la construcción, almacenes y plantas de producción.
Analizar datos históricos (accidentes o incidentes) para predecir tanto el volumen como el lugar donde pueden ocurrir es algo que ya existía desde hace tiempo, sin relación directa con la IA. Pero ahora, la IA está empezando a predecir cuándo podrían suceder. Usos valiosos como este están haciendo que la IA se integre poco a poco en las evaluaciones de riesgos laborales y en los controles de cumplimiento.
El futuro de la IA es, sin duda, prometedor. Las cámaras con IA ya pueden detectar comportamientos inseguros en tiempo real (por ejemplo, no usar EPIs o trabajar en zonas restringidas), e incluso puede controlar drones o robots para realizar inspecciones. Algunas organizaciones están desarrollando soluciones que analizan expresiones faciales, tonos de voz o datos biométricos para detectar estrés, fatiga o angustia emocional en tiempo real.
Dejando a un lado el coste de estas tecnologías y, por ahora, el aspecto de la protección de datos (GDPR), hay una preocupación urgente:
A pesar de todos los avances de la IA, el Instituto Nacional de Seguridad y Salud en el Trabajo (INSST) u otros organismos y autoridades no van a emitir faltas, ni procesar judicialmente a una máquina.
La IA puede procesar más datos en minutos que un humano en un día, pero todavía carece de contexto, un componente esencial en el sector relacionado con la Salud y Seguridad en el trabajo.
La IA aun parece tener dificultades en poder detectar que un andamio "parece mal montado" como lo haría un ojo entrenado, ni conoce todas las regulaciones, cultura o sentido común españoles. Por eso, aunque la IA es una herramienta poderosa, una dependencia excesiva en este momento es un riesgo real.
En España, se esta comenzando a construir una cultura sólida de responsabilidad personal en salud y seguridad laboral. Y no debería perderse dicho progreso, en la carrera por digitalizar.
¿Puede la IA Mejorar Realmente la Seguridad o Es Solo Humo?
A simple vista, la IA tiene el potencial de transformar la gestión de riesgos, la predicción de peligros y la optimización de procedimientos de seguridad. Desde sistemas de aprendizaje automático que alertan sobre posibles incumplimientos hasta algoritmos de mantenimiento de maquinaria predictivo, la IA podría convertirse en una aliada clave.
Pero a diferencia de otras empresas, nosotros en dulann no somos solo una compañía tecnológica que busca simplemente vender. Por eso nos preguntamos constantemente:
“¿Qué pasa cuando la IA falla? ¿Quién es legal y moralmente responsable si se omite un peligro y alguien resulta herido?”
El auge de la IA es enorme. Casi todos los artículos que se leen hoy tienen algún enfoque en ella. Uno casi se siente fuera de juego si no está implementando IA de alguna forma. Pero la IA no es un concepto nuevo. La inteligencia artificial modelada por humanos existe desde hace décadas.
Los responsables de seguridad tienen el deber de informarse sobre esta para poder distinguir entre lo que realmente ayuda y lo que es solo marketing.
Por Qué la Industria de la Seguridad Afronta Riesgos Únicos con la IA
El sector de la salud y seguridad laboral no es como el resto. Mientras que los beneficios de la IA en sectores como el IT son evidentes, en salud y seguridad debemos ver la IA desde una perspectiva distinta.
Citando al Coronel Jessep (Jack Nicholson) en Cuestión de Honor:
“Sigue órdenes, o la gente muere. Así de simple.”
En seguridad es igual: o lo haces bien, o alguien puede morir.
No olvidemos que en España ha habido directores, empresarios e incluso trabajadores encarcelados por violaciones de seguridad. Entonces, la gran pregunta es… ¿Puede la IA ayudarte a hacerlo bien? Creemos que sí, sin duda.
Pero siempre debemos aplicar el filtro de “¿Y si la IA falla?”
¿Está Preparado el Sector de la Salud y Seguridad Laboral para Integrar IA?
La industria tecnológica se adapta al cambio a velocidad de la luz, pero la industria de la seguridad laboral cambia lentamente.
Hace poco la mayoría aún usaba papel hasta que el COVID-19 obligó a digitalizarse.
¿Está lista la industria para adoptar IA? ¿Vale la pena? ¿Es una oportunidad real o solo otra moda de las empresas tecnológicas?
¿Quién Es Legalmente Responsable Cuando Falla la IA?
La legislación española, como muchas otras, aún no tiene un marco claro sobre la responsabilidad de la IA.
Actualmente, la responsabilidad recae en la organización y en las personas dentro de ella, es decir, en el empleador, el propietario o el encargado de la seguridad. Y muchas veces, los tribunales apuntan a los Directores y Secretarios de la empresa, quienes, aunque no implementen medidas de seguridad directamente, gestionan documentación y cumplimiento legal.
Con o sin IA, los Directores de las empresas siguen siendo responsables del cumplimiento de la Ley 31/1995, de 8 de noviembre, de Prevención de Riesgos Laborales.
Así que, como Director o Secretario, deberías preguntarte:
“¿Y si un sistema de IA omite un riesgo crítico? ¿Si alguien resulta herido… iré a la cárcel?”
Crear Conciencia, No Alarmismo
Este artículo no pretende asustar, ni desacreditar la IA (¡porque nos encanta!), sino mostrar la cruda realidad legal.
Estas preguntas no son hipotéticas, están en el centro de un nuevo desafío en cumplimiento y gestión de riesgos: cuando las máquinas toman decisiones, ¿quién asume las consecuencias?
El desarrollador del algoritmo probablemente no será juzgado. Y claramente no se puede procesar a un ordenador.
Entonces, aunque partes de la gestión de seguridad se pueden subcontratar, la responsabilidad final no se puede delegar. Así de claro. Y si demostrar negligencia ya es complicado, con la IA, que es opaca y está en constante aprendizaje, será casi imposible.
No decimos que debas evitar la IA, solo que estos factores deben incluirse en tu evaluación de riesgos al tomar decisiones.
Protección de Datos y Acuerdos de Usuario: ¡Atención!
A día de hoy, la IA aún no ha sido puesta realmente a prueba en los tribunales. Las leyes actuales no contemplan bien estos escenarios. Por tanto, la responsabilidad sigue siendo humana.
¿Está la industria de la seguridad preparada para esto? ¿Y lo está la industria tecnológica?
Hay una señal clara para nosotros: al revisar los términos y condiciones de 10 proveedores globales que ofrecen IA en seguridad, cuatro ni siquiera mencionaban “Inteligencia Artificial”.
Y uno incluía esta cláusula:
“Reconoces que cualquier entrada que proporciones, incluida información personal o datos comerciales confidenciales, se compartirá con terceros como OpenAI, LLC. Estos pueden usar dicha entrada para mejorar sus servicios. Consientes que dicha información se comparta.”
No sugerimos que estén haciendo algo ilegal, pero ofrecer IA sin mencionarla en los contratos es peligroso.
Muchos proveedores en España incluyen cláusulas para limitar su responsabilidad legal, trasladando la carga al empleador. Así que incluso si la IA falla por un error de diseño o datos mal analizados, la responsabilidad legal seguirá siendo tuya.
El Dilema Moral: ¿Debe la IA Tomar Decisiones Críticas de Seguridad?
Más allá de lo legal, hay una pregunta ética:
¿Debemos delegar decisiones críticas de seguridad a sistemas que no entendemos completamente?
Es tentador confiar en los datos. La IA no:
- Se cansa,
- Se salta pasos,
- Se distrae por aburrimiento.
Pero tampoco comprende el contexto como un profesional humano capacitado.
En nuestra opinión —y no es una visión muy popular en el mundo tech—, una confianza ciega en la IA puede ser tan peligrosa como no tener ningún sistema de seguridad.
Enfoque Práctico para la IA en Seguridad
- Mantén siempre a un humano en el circuito
- La IA debe apoyar, no reemplazar, el juicio profesional.
- Comprende el sistema
- Conoce qué hace la IA, cómo toma decisiones y sus límites.
- Revisa los contratos
- Asegúrate de que el proveedor asuma responsabilidades si algo falla.
- Sé transparente con el equipo
- Explica cómo se usa la IA y capacítalos para cuestionarla si algo no cuadra.
- Audita todo
- Asegúrate de que las decisiones basadas en IA sean trazables.
En dulann, creemos que el futuro de la seguridad no es humano o máquina, sino humano Y máquina.
Reflexión Final
La IA puede revolucionar la seguridad laboral, pero solo si se implementa con cuidado, claridad y responsabilidad.
No es una varita mágica. Y mucho menos un salvoconducto legal cuando las cosas van mal.
A medida que avanzamos hacia un mundo más automatizado, el sector de la seguridad debe moverse con cautela, pensamiento crítico y distinguir la realidad del marketing.
La legislación aún no está lista para la IA, especialmente en cuanto a protección de datos y sensibilidad comercial. La Ley de IA de la UE afectará significativamente a España, especialmente en sectores de alto riesgo como la construcción o la industria química. Esta ley será plenamente aplicable el 1 de agosto de 2026, aunque algunas obligaciones ya están en vigor. Eso nos da 15 meses para que el hype baje, la legislación se actualice y los acuerdos se pongan al día.
Mientras tanto, puedes explorar la IA en áreas no críticas como reconocimiento de imágenes, robótica, marketing… Pero en decisiones críticas de seguridad, la responsabilidad sigue siendo humana, incluso si la decisión la tomó una máquina.
Y eso no va a cambiar pronto.