La IA generativa permite crear contenido como imágenes y textos, ayudando a ahorrar tiempo. Al implementarlo, Zoom se asegura de proteger los datos y modelos de IA con estrictos controles de seguridad, permitiendo a los usuarios elegir qué herramientas usar y garantizando que sus datos no se utilicen sin su consentimiento.
¿Qué es la IA generativa y cómo funciona?
La IA generativa ofrece herramientas para generar nuevos contenidos, como imágenes, palabras, sonidos, vídeos y datos a través de varias entradas y salidas de modelos de IA. Sin embargo, ese modelo va más allá de lo convencional y utiliza distintos algoritmos y aprendizaje automático para generar resultados inmediatos cuando se le pide. Como resultado, las personas pueden agilizar su trabajo y ahorrar tiempo valioso para tareas como la redacción de resúmenes de reuniones, la búsqueda de imágenes, o superar la falta de inspiración al escribir con asistencia para la redacción de textos publicitarios.
En este sentido, las soluciones que brinda la IA generativa pueden tener un gran valor para el usuario final, ya que liberan tiempo para dedicarse a tareas más productivas. Sin embargo, antes de elegir qué herramientas de IA se deben implementar en los flujos de trabajo, es importante que se tengan en cuenta algunos aspectos.
- Determinar y definir los problemas que se desea resolver. ¿Se intenta mejorar el servicio al cliente? ¿Simplificar las tareas repetitivas? ¿Evaluar nuevas tendencias? ¿Traducir y localizar contenido rápidamente?
- Elaborar un calendario. ¿Con qué rapidez se puede analizar, evaluar e implementar las opciones de IA? ¿Cuál es el coste de ir demasiado despacio?
- Decidir qué es lo que más importa. Las distintas herramientas de IA presentan diferentes ventajas e inconvenientes, así como preguntas que se deben formular a los proveedores que se estén evaluando.
Además de estas cuestiones, es importante investigar cómo gestionan los proveedores la seguridad de la IA y sus medidas de privacidad. Para esto, se recomienda a las organizaciones y a sus usuarios finales que investiguen cómo se recopilan y utilizan los datos para potenciar las herramientas de IA que se desean implementar.
¿Qué es la seguridad de la IA frente a la protección de la IA?
La seguridad y la protección de IA son aspectos fundamentales, pero distintos a la implementación y la protección de los sistemas de IA, en concreto:
- La seguridad de IA se centra en resguardar la confidencialidad, la integridad y la disponibilidad de los datos utilizados en los modelos y los sistemas de IA.
- La protección de IA implica consideraciones más amplias relacionadas con la solidez y la fiabilidad; las consecuencias éticas; el impacto social, económico y medioambiental a largo plazo, así como el impacto en los derechos y los valores actuales.
Seguridad de la IA en Zoom
Para superar algunas de las dificultades de seguridad que surgen con las integraciones de IA (en particular, la necesidad de proteger los modelos predictivos, los conjuntos de datos y los entornos de formación), instituciones respetadas, como el Instituto Nacional de Normas y Tecnología (NIST), el Centro Nacional de Ciberseguridad (NCSC) y, conjuntamente, la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (CEI), están elaborando diversas pautas, normas y marcos de acción.
El enfoque de seguridad de la IA sigue estas normas para garantizar la confianza de los usuarios, con un enfoque en prevenir amenazas emergentes.
El compromiso de Zoom con la seguridad de la IA también se integra en todo el ciclo de vida del desarrollo seguro de Zoom (ZSDLC), que comprende la gestión segura de la cadena de suministro; el entrenamiento de modelos; el diseño, el desarrollo y el funcionamiento seguro, y la formación de los empleados. Igualmente, se están incorporando consideraciones de IA en las políticas de GRC (Gobernanza, Riesgo y Cumplimiento), en el marco de riesgos, y también se están incluyendo pruebas de seguridad e investigación a cargo del equipo de Garantía de Seguridad de Zoom.
¿Cómo aborda Zoom la seguridad de la IA?
El enfoque de la seguridad de la IA comienza con los modelos y datos que se utilizan para crear los servicios de Zoom. En el caso de los modelos que hay en la aplicación, se validan y gestionan los datos propios y al seleccionar proveedores externos, se evalúan los procedimientos de seguridad para asegurarse de que se adapten a las demandas actuales. Estas evaluaciones también incluyen la prueba de los modelos, frente a métricas de seguridad estándar, para validar problemas comunes que pueden presentarse.
A continuación, se presentan tres formas diferentes en las que se aborda la seguridad y la protección de la IA en Zoom:
Protección de los productos y servicios de IA de Zoom que utilizan IA generativa —como Zoom AI Companion y Zoom Contact Center Expert Assist— y los modelos subyacentes que los respaldan.
Aprovechamiento de la IA en todo nuestro programa y prácticas de seguridad para adelantarnos a las amenazas que van surgiendo.
Protección del uso interno de la IA por parte de Zoom.
Administración de la seguridad y la protección junto con un enfoque federado de la IA
En Zoom, se adopta un enfoque federado respecto a la IA, lo que significa que se aplican los mejores grandes modelos lingüísticos para una tarea específica, incluidos modelos de IA de terceros que los clientes ya conocen. Los clientes pueden elegir qué características utilizar y si desean usar únicamente modelos alojados en Zoom, lo que está disponible para ciertas características. Esto ofrece a los administradores un mayor control sobre lo que está disponible en su organización.
En relación con el compromiso con la IA responsable, Zoom no utiliza ningún material de audio, vídeo, chat, pantalla compartida, archivos adjuntos ni otras comunicaciones del cliente, como contenidos del cliente (por ejemplo, resultados de encuestas, pizarras y reacciones), para entrenar los modelos de inteligencia artificial de Zoom o de terceros.