top of page
LOGO INFORC.png

Cuando la IA Cruza la Línea entre Ayuda y Violación de Privacidad

  • Foto del escritor: Equipo Inforc Ecuador
    Equipo Inforc Ecuador
  • hace 38 minutos
  • 5 Min. de lectura
ree

Debido a la tendencia creciente del uso de la IA para "casi todo", me he visto en la obligación personal de entender -o al menos tratar- el potencial real de su uso para el común de los mortales.

No me refiero a los importantes avances en la neurociencia, movilidad, investigaciones en general, sino a cómo puede mejorar tu vida diaria y laboral.


He asistido a varias charlas sobre diferentes tecnologías y marcas en estos años, que presentan como gran novedad en todos sus productos, el uso de IA generativa en la plataforma, para que ya no tengas que abrir el dashboard de resultados o estadísticas, sino que mediante un chatbot lo solicites en lenguaje natural.

Sin aportar realmente una ayuda o una mejora sustancial, lo que ha llevado a la conclusión generalizada de que -la IA sin propósito no sirve de nada-. Más situaciones similares suceden con las funciones de redactar correos electrónicos para "confirmar recepción" entre otras tareas triviales.

Ahora bien, en esta ocasión me quiero enfocar en las herramientas que permiten crear resúmenes de tus reuniones en MS Teams, Zoom, y que no son necesariamente nativas de dichas plataformas como es el caso de Read.ai. Iniciemos por lo primero para los que no lo conocen.


¿Qué es Read.ai?


Read.ai es una plataforma impulsada por inteligencia artificial (IA) que tiene como objetivo mejorar la eficiencia y la productividad en las reuniones virtuales. Se clasifica como un asistente de reuniones con tecnología de IA.

Utiliza el procesamiento del lenguaje natural y el reconocimiento del hablante para transcribir el discurso, resumir las discusiones y comprender el contexto.

Read.ai proporciona resúmenes de reuniones, transcripciones e informes automatizados para las llamadas en línea. Sus funciones son extensas y desde el punto de vista operativo nos permitiría recordar ciertos puntos de una reunión sin la necesidad de ver la grabación completa y así no perdernos nada que se nos pueda pasar por alto. Eficiencia al 100%, al menos en papel.


¿Y es seguro usarla?


Si has tenido tiempo revisando plataformas y viendo noticias de seguridad, probablemente te has hecho más de una vez estas preguntas: ¿Es seguro utilizarla? ¿Qué hace la empresa con mis datos? ¿Quién tiene acceso a mis reuniones? Y aquí precisamente es donde las cosas dejan de ser tan maravillosas.


Riesgos Operacionales y Violaciones de Privacidad de Read.ai:


Read.ai tiene la capacidad de unirse, grabar y transcribir reuniones automáticamente sin el conocimiento o consentimiento de todos los asistentes. Basta únicamente con que un usuario se registre para que entregue a la aplicación la autorización de unirse en su nombre a todas las reuniones, incluso sin que el propio usuario asista a dicha reunión. Basta con realizar una búsqueda general en Reddit para visualizar los testimonios y quejas de las personas que han utilizado la plataforma y que, más allá de sus evidentes funciones, han causado un problema a su privacidad, seguridad digital y reputación. Algunos de ellos describen a la plataforma como un malware o gusano -por el hecho de acceder sin consentimiento a ciertas reuniones- con la premisa de que un usuario de esa reunión lo autorizó en su nombre.


Otro punto a considerar es la dificultad de expulsar o bannear el bot de las reuniones una vez que se ha iniciado, incluso han reportado casos en los que después de borrar sus cuentas aún sigue el bot de Read.ai uniéndose a las llamadas sin aprobación. Estas actividades han pasado de ser casos aislados de usuarios descontentos en foros, a tener repercusiones laborales, como el caso de un consultor de negocios que indica haber perdido una venta después de que un asistente agregara el bot a la reunión privada para posteriormente ser compartidos los detalles vía correo electrónico de forma automática. El incidente se dio debido a que al finalizar la conversación con el cliente y que este se desconectara, alguien hiciera un "comentario fuera de lugar" que luego llegaría en la transcripción al cliente (y a todos los demás asistentes).


¿Les ha pasado que en ocasiones durante una reunión alguno de nuestros colegas del escritorio de al lado, que no se encuentra en nuestra reunión, se expresa de manera efusiva (por el motivo que fuese), y que por desgracia en ese momento nuestro micrófono estuvo abierto? Pues sí, también el bot podrá interpretar eso en la transcripción que será enviada a todos los asistentes. El análisis de sentimiento realizado por la plataforma difícilmente entenderá un sarcasmo o una broma, lo cual podría afectar la reputación del interlocutor o cambiar el contexto en las notas de reunión.


Otros riesgos a los que estamos expuestos en caso de que la información almacenada por la empresa Read.ai sea filtrada, expuesta, vendida (ya que según los términos de licencia de uso es sublicenciable) o simplemente accesible por un tercero incluido en la reunión, serían:


  • Clonación del perfil de voz

  • Fuga de datos confidenciales

  • Daño reputacional por errores de interpretación

  • Incumplimiento normativas de protección de datos internacionales y locales.


Tomando acciones o esperar el impacto:

Como estos hay cientos de casos, y algunas instituciones han empezado a tomar cartas en el asunto como es el caso de la Universidad de Washington, que determinó la necesidad de bloquear las integraciones de sus usuarios que utilicen Read.ai con MS Teams y Zoom para proteger los datos institucionales de los riesgos de seguridad y privacidad. La Universidad de Oxford también implementó cambios para bloquear los bots de reuniones no autorizados, entre ellos Read.ai, y revocó las capacidades de acceso a calendarios, tratando esta intrusión como una "grave amenaza de ciberseguridad".


Comentario final


La promesa de eficiencia que ofrecen herramientas como Read.ai viene acompañada de riesgos significativos que no pueden ser ignorados. La automatización sin control consciente, la falta de transparencia en el manejo de datos sensibles y las vulneraciones a la privacidad de terceros, convierten a estas plataformas en una potencial amenaza tanto para individuos como para organizaciones. La conveniencia de tener un resumen automático de reuniones no justifica exponer información confidencial, comprometer la reputación profesional o poner en riesgo la seguridad digital de todos los participantes. Es fundamental que tanto usuarios como instituciones evalúen críticamente el costo real de estas "soluciones mágicas" antes de adoptarlas.


Como profesionales y usuarios de tecnología, tenemos la responsabilidad de cuestionar y entender las implicaciones de las herramientas que incorporamos en nuestro día a día. No se trata de demonizar la IA ni rechazar el progreso tecnológico, sino de exigir transparencia, control y respeto por nuestra privacidad y la de quienes nos rodean. Antes de habilitar cualquier bot o asistente en tus reuniones, pregúntate: ¿realmente necesito esta herramienta? ¿Todos los participantes están conscientes y de acuerdo? ¿Qué sucede con los datos que se recopilan? y finalmente ¿Quién realmente controla nuestra conversación? La tecnología debe servir para mejorar nuestras vidas, no para comprometer nuestra seguridad. La decisión, como siempre, está en nuestras manos.


Elaborado por: Alberto Rivadeneira - Inforc Ecuador


Referencias:


 
 
 

Comentarios


bottom of page