La protección de la información personal es hoy un desafío crucial, especialmente para colectivos que dependen de la tecnología para su autonomía. Por ello, COORDINA participa en VIGO4AI, un proyecto Erasmus+ que impulsa la privacidad de datos en IA para discapacidad visual, capacitando a las personas para utilizar herramientas de inteligencia artificial de forma segura, responsable y accesible.
En esta línea, COORDINA participa activamente en el proyecto europeo Erasmus+ VIGO4AI (Visually Impaired Go for Artificial Intelligence), una iniciativa internacional cuyo objetivo es capacitar a personas con discapacidad visual en el uso de herramientas de IA accesibles, incluyendo un enfoque específico en la privacidad y protección de datos personales.
Un proyecto europeo para la inclusión digital y la privacidad de datos en IA para discapacidad visual
VIGO4AI está liderado por Hilfsgemeinschaft der Blinden und Sehschwachen Österreichs (Austria) y cuenta con un consorcio especializado en discapacidad visual, accesibilidad, tecnología asistiva y formación profesional:
- VIDEBIS GmbH (Austria)
- BFW Düren – Zentrum für berufliche Bildung blinder und sehbehinderter Menschen (Alemania)
- Istituto Regionale Rittmeyer per i Ciechi (Italia)
- Zavod IZRIIS (Eslovenia)
- COORDINA Organización de Empresas y Recursos Humanos, S.L. (España)
Cada socio aporta conocimiento experto en ámbitos clave para que las personas con discapacidad visual puedan desenvolverse con éxito en un entorno digital cada vez más complejo.
Privacidad de datos en herramientas de IA: un reto clave para la inclusión
A medida que la IA se integra en asistentes virtuales, aplicaciones móviles y plataformas de aprendizaje, también aumenta la cantidad de información personal que estas herramientas pueden procesar.
Esto representa una oportunidad, pero también un riesgo. Por ello, dentro del proyecto VIGO4AI, uno de los contenidos formativos esenciales es la capacidad de distinguir entre herramientas seguras y herramientas de riesgo, especialmente para quienes dependen de aplicaciones accesibles para su vida diaria.
¿Por qué es importante la privacidad de datos en IA para discapacidad visual?
La mayoría de aplicaciones de IA de uso libre funcionan en servidores públicos.
Esto implica que:
– La información introducida puede almacenarse,
– procesarse para mejorar modelos,
– o incluso compartirse para fines analíticos, dependiendo del proveedor.
Por ello, es esencial que cada persona —y especialmente quienes utilizan tecnologías asistivas para compensar limitaciones visuales— comprenda qué datos está compartiendo y con qué nivel de seguridad.
Recomendaciones clave del proyecto VIGO4AI sobre privacidad de datos en IA para discapacidad visual
La privacidad de datos no es un concepto abstracto: afecta a la vida diaria de cualquier persona que usa la IA.
Para las personas con discapacidad visual, que a menudo dependen de lectores de pantalla, asistentes de IA o apps de reconocimiento para interpretar su entorno, la protección de datos cobra aún más importancia.
Por ello, desde el proyecto VIGO4AI, se han definido unas recomendaciones prácticas, claras y aplicables a cualquier situación cotidiana:
1. Para datos sensibles, prioriza herramientas con servidores privados y protegidos
Las herramientas que ofrecen servidores privados, cifrado de extremo a extremo y control sobre los datos procesados reducen riesgos y evitan accesos no autorizados.
Ejemplos prácticos:
– Si necesitas interpretar información médica, como informes clínicos o recetas, es más seguro utilizar herramientas que operan en servidores europeos o que permiten aislar los datos.
Por ejemplo, aplicaciones OCR que funcionan sin conexión (offline), como Voice Dream Scanner, minimizan el riesgo al no enviar información a la nube.
– En entornos laborales, muchas organizaciones ya prefieren usar modelos privados como Azure OpenAI, donde los datos no se utilizan para entrenar modelos y permanecen bajo normativas europeas estrictas.
Por qué es importante: Datos como dirección, historial médico, identificación o información financiera deben tratarse con especial cuidado porque son los más vulnerables.
2. Las herramientas de IA abiertas siguen siendo útiles, pero deben usarse con conciencia
Las aplicaciones de IA “abiertas al público”, como ChatGPT, Copilot, Gemini o herramientas OCR gratuitas, pueden ser herramientas muy potentes.
Sin embargo, parte de lo que se envía puede almacenarse o utilizarse para mejorar el modelo, dependiendo del proveedor.
Ejemplos prácticos:
- Sí puedes usar herramientas abiertas para:
-
- resumir textos generales,
- generar ideas,
- obtener explicaciones,
- dictar mensajes no sensibles,
- preparar documentos que no contengan datos personales.
- resumir textos generales,
- Es mejor evitar:
- subir fotografías de documentos con dirección o DNI,
- enviar información laboral confidencial,
- compartir imágenes del interior de tu casa,
- introducir diagnósticos médicos o nombres completos de terceros.
- subir fotografías de documentos con dirección o DNI,
Ejemplo real (2025):
Una persona con discapacidad visual puede usar Be My Eyes con IA para identificar un objeto o leer una etiqueta.
Pero si necesita interpretar un documento bancario, es mejor no usar la versión abierta y optar por herramientas seguras u offline.
3. Revisa los datos antes de compartirlos: minimiza lo identificable
Este hábito es sencillo, pero tremendamente eficaz. Consiste en reducir toda la información personal que no sea necesaria antes de introducirla en una herramienta de IA.
Ejemplos prácticos:
- Antes de usar una IA para redactar un correo, sustituye nombres por etiquetas como “Cliente A” o “Profesora B”.
- Si envías una foto a una herramienta OCR, tapa o recorta la parte que contiene datos innecesarios.
- Si tienes que describir una situación personal a una IA para recibir orientación, evita incluir datos como dirección, fecha de nacimiento o teléfono.
Aplicación en la vida diaria:
Personas con discapacidad visual suelen confiar en aplicaciones para leer cartas físicas.
En lugar de escanear el documento entero, pueden fotografiar solo la parte del texto que necesitan, evitando compartir direcciones o códigos personales.
4. Selecciona la herramienta adecuada para cada propósito según su estándar de privacidad
No todas las IAs son iguales ni sirven para lo mismo. Dependiendo del nivel de sensibilidad de la tarea, conviene elegir la aplicación con el nivel de privacidad que se necesite.
Ejemplos concretos:
| Tipo de tarea | Nivel de privacidad recomendado | Ejemplos de herramientas adecuadas |
| Leer etiquetas, identificar objetos, tareas simples | Bajo a medio | Be My Eyes (versión pública), Seeing AI |
| Redacción general, resúmenes, consultas informativas | Medio | ChatGPT, Copilot, Gemini |
| Documentos de trabajo, textos profesionales | Alto | Versiones empresariales de IA con privacidad reforzada (Azure OpenAI, ChatGPT Team/Enterprise) |
| Información médica, financiera o legal | Muy alto | Aplicaciones offline, servidores privados, IA corporativa o modelos alojados de forma local |
Nuestro compromiso desde COORDINA
La participación de COORDINA en VIGO4AI refuerza nuestra apuesta por:
- La inclusión digital,
- La formación accesible,
- El uso responsable de la IA,
- Y la creación de entornos tecnológicos seguros para todas las personas.
A través de este proyecto, contribuimos a que la digitalización sea un proceso justo, ético y respetuoso con los derechos de cada individuo, especialmente para aquellos colectivos que más pueden beneficiarse de la tecnología.
Más información
🌐 Web oficial del proyecto: https://www.vigo4ai.com/en
📧 Contacto COORDINA: innovacion@coordina-oerh.com


