Última actualización: mayo de 2025

¿Qué es una nota de transparencia?

Un sistema de IA incluye no solo la tecnología, sino también las personas que la usarán, las personas que se verán afectadas por ella y el entorno en el que se implementa. Las Notas de transparencia de Microsoft están pensadas para ayudarle a comprender cómo funciona la tecnología de IA de Copilot, las elecciones que hemos tomado que influyen en el rendimiento y el comportamiento del sistema, y la importancia de pensar en todo el sistema, para que los usuarios de Copilot puedan tomar el control de sus propias experiencias y comprender los pasos que estamos tomando para proporcionar un producto seguro.

Las Notas de transparencia de Microsoft forman parte de un esfuerzo más amplio de Microsoft para poner en práctica nuestros principios de IA. Para obtener más información, consulta los Principios de IA de Microsoft

Conceptos básicos de Microsoft Copilot

Introducción

Copilot es una experiencia con tecnología de IA que le ayudará a proporcionar a los usuarios la información que buscan mientras están preparados para ayudar a los usuarios a responder a una amplia gama de preguntas, independientemente de la situación o el tema. La versión actualizada de Copilot va más allá de responder a consultas básicas de recuperación de información y se centra en generar contenido para ofrecer soporte más proactivo a los usuarios al completar las tareas. Tenemos una comprensión cada vez mayor de cómo la IA tiene el potencial para ayudar a las personas a aprender, descubrir y ser más creativos, lo que nos ha requerido crear un tipo de producto diferente. La nueva experiencia copiloto busca convertirse en un nuevo tipo de experiencia abierta y dinámica para abordar mejor las necesidades de los usuarios de una manera más intuitiva.

En Microsoft, nos tomamos muy en serio nuestro compromiso con la IA responsable. La experiencia actualizada de Copilot se ha desarrollado en línea con los Principios de IA de Microsoft, la Standard de IA responsable de Microsoft y en asociación con expertos responsables de IA de toda la empresa, como la Oficina de IA responsable de Microsoft, nuestros equipos de ingeniería, Microsoft Research y Aether. Puedes obtener más información sobre la IA responsable en Microsoft aquí.  

En este documento, describimos nuestro enfoque hacia la IA responsable para Copilot. Antes del lanzamiento, aprovechamos los métodos avanzados de Microsoft para asignar, medir y administrar los riesgos potenciales y el uso indebido del sistema, así como para proteger sus ventajas para los usuarios. A medida que continuamos evolucionando Copilot, también hemos seguido aprendiendo y mejorando nuestros esfuerzos responsables de IA. Este documento se actualizará periódicamente para comunicar nuestros procesos y métodos en evolución.  

Términos clave

Clasificadores    Modelos de aprendizaje automático que ayudan a ordenar los datos en clases etiquetadas o categorías de información. En la experiencia actualizada de Copilot, una forma en la que usamos clasificadores es ayudar a detectar contenido potencialmente perjudicial enviado por los usuarios o generado por el sistema para mitigar la generación de ese contenido y el uso incorrecto o perjudicial del sistema. 

Tierra    Para determinadas conversaciones en las que los usuarios buscan información, Copilot se basa en los resultados de búsqueda web. Esto significa que Copilot centra su respuesta en contenido de alto nivel de la web y proporciona citas con hipervínculos después de las respuestas de texto generadas. Tenga en cuenta que, en este momento, las solicitudes de usuario en el modo de voz no desencadenarán una búsqueda web, por lo tanto, ninguna respuesta incluirá citas.

Modelos de idioma de gran tamaño (LLM)    Los modelos de lenguaje de gran tamaño (LLM) en este contexto son modelos de IA que están entrenados en grandes cantidades de datos de texto para predecir palabras en secuencias. Las LLM pueden realizar diversas tareas, como la generación de texto, el resumen, la traducción, la clasificación, etc.

Mitigación    Un método o una combinación de métodos diseñados para reducir los riesgos potenciales que pueden surgir al usar las características de IA en Copilot.

Modelos multi modales (MMM)    Los modelos multi modales (MMM) son modelos de IA que están formados en diferentes tipos de datos, como texto, imágenes o audio. Estos modelos pueden realizar una serie de tareas, como escribir texto, describir imágenes, reconocer la voz y buscar información entre diferentes tipos de datos.

Consultas    Entradas en forma de texto, imágenes y/o audio que un usuario envía a Copilot para interactuar con las características de IA de Copilot.

Selección roja    Técnicas usadas por expertos para evaluar las limitaciones y vulnerabilidades de un sistema y probar la eficacia de las mitigaciones planeadas. Las pruebas de equipo rojo incluyen evaluadores que adoptan personas benignas y adversariales para identificar riesgos potenciales y son distintos de la medición sistemática de los riesgos.

Respuestas    Texto, imágenes o audio que Copilot envía en respuesta a un mensaje o como parte de la ida y vuelta con el usuario. Los sinónimos de "respuesta" incluyen "finalización", "generación y respuesta".

Modelos de idioma pequeño (SLMs)    Los modelos de lenguaje pequeño (SLM) en este contexto son modelos de IA que se entrenan en cantidades de datos más pequeñas y enfocadas en comparación con modelos de lenguaje de gran tamaño. A pesar de su tamaño más pequeño, los SLMs pueden realizar una variedad de tareas, como la generación de texto, el resumen, la traducción y la clasificación. Aunque es posible que no coincidan con las amplias capacidades de las LDM, los SLMs suelen ser más eficientes en cuanto a recursos y pueden ser altamente eficaces para aplicaciones específicas y específicas. 

Mensaje del sistema    El mensaje del sistema (a veces denominado "metaprompt") es un programa que sirve para guiar el comportamiento del sistema. Las partes del mensaje del sistema ayudan a alinear el comportamiento del sistema con los principios de IA de Microsoft y las expectativas del usuario. Por ejemplo, un mensaje del sistema puede incluir una línea como "no proporcionar información o crear contenido que pueda causar daños físicos, emocionales o financieros". 

Capacidades

Comportamiento del sistema

Con Copilot, hemos desarrollado un enfoque innovador para ofrecer una experiencia de IA más personalizada a los usuarios para que disfruten de una experiencia atractiva que pueda ayudar a los usuarios con una variedad de tareas. Este enfoque innovador aprovecha una variedad de tecnologías avanzadas, como modelos de lenguaje y multi modales de Microsoft, OpenAI y otros desarrolladores de modelos. Hemos trabajado en la implementación de técnicas de seguridad para los modelos subyacentes de la nueva experiencia de Copilot antes del lanzamiento público para desarrollar un conjunto personalizado de capacidades y comportamientos que proporcionan una experiencia mejorada de Copilot. En Copilot actualizado, los usuarios pueden enviar mensajes de texto o voz en lenguaje natural. Las respuestas se presentan a los usuarios en varios formatos diferentes, como respuestas de chat en forma de texto (con vínculos tradicionales al contenido web según sea necesario) e imágenes (si se realizó una solicitud de imagen como parte del mensaje). Si los usuarios envían mensajes en voz en lenguaje natural dentro del modo de voz copiloto, recibirán respuestas de audio. 

Cuando un usuario escribe un mensaje en Copilot, el aviso, el historial de conversaciones y el mensaje del sistema se envían a través de varios clasificadores de entrada para ayudar a filtrar contenido perjudicial o inadecuado. Este es un primer paso crucial para ayudar a mejorar el rendimiento del modelo y mitigar situaciones en las que los usuarios podrían intentar preguntar el modelo de una manera que podría ser insegura. Una vez que el aviso pasa a través de los clasificadores de entrada, se envía a un SLM para determinar si la solicitud requiere datos de conexión a tierra desde la web y qué modelo de idioma debe responder a la solicitud. Todos los modelos generan una respuesta con la petición del usuario y el historial de conversaciones recientes para contextualizar la solicitud, el mensaje del sistema para alinear las respuestas con los principios de IA de Microsoft y las expectativas del usuario y, si procede, alinear las respuestas con los resultados de búsqueda con las respuestas básicas en contenido de alto nivel existente de la web.  

Las respuestas se presentan a los usuarios en varios formatos diferentes, como respuestas de chat en forma de texto, vínculos tradicionales a contenido web, imágenes y respuestas de audio. Cuando las respuestas se proporcionan en forma de texto y las respuestas se fundamentan en datos de la web, la salida contiene citas con hipervínculos enumeradas debajo del texto para que los usuarios puedan acceder a los sitios web que se usaron para fundamentar la respuesta y obtener más información sobre el tema desde allí. 

Copilot también ayuda a los usuarios a crear nuevas historias, poemas, letras de canciones e imágenes. Cuando Copilot detecta la intención del usuario de generar contenido creativo (por ejemplo, un mensaje de usuario que comienza con "escríbame un ..."), el sistema, en la mayoría de los casos, generará contenido que responda a la petición del usuario. De forma similar, cuando Copilot detecta la intención del usuario de generar una imagen (por ejemplo, un mensaje de usuario que comienza con "dibujarme un..."), Copilot, en la mayoría de los casos, generará una imagen que responda a la petición del usuario. Cuando Copilot detecta la intención del usuario de modificar una imagen cargada (por ejemplo, un mensaje de usuario que comienza con "agregar un ..."), Copilot, en la mayoría de los casos, modificará una imagen que responda a la petición del usuario. Es posible que Copilot no responda con contenido creativo cuando el mensaje de usuario contenga determinados términos que podrían dar lugar a contenido problemático.

Los usuarios con cuentas de Microsoft (MSA) ahora también tienen la opción de suscribirse a Copilot Pro, que ofrece una experiencia mejorada, incluido el rendimiento acelerado, el uso de las capacidades de Copilot Voice durante períodos más largos de tiempo y, en algunos casos, el acceso a nuevas características experimentales. Copilot Pro está disponible actualmente en un número limitado de países y tenemos previsto que Copilot Pro estén disponibles pronto en más mercados.

Comportamiento de seguridad previsto

Nuestro objetivo para Copilot es ser útil para los usuarios. Al aprovechar las prácticas recomendadas de otros productos y servicios de IA generativos de Microsoft, nuestro objetivo es limitar la generación de contenido problemático por parte de Copilot y aumentar la probabilidad de una experiencia de usuario segura y positiva. Aunque hemos tomado medidas para mitigar riesgos, los modelos de IA generativos como los que están detrás de Copilot son probabilistas y pueden cometer errores, lo que significa que las mitigaciones pueden en ocasiones no bloquear las solicitudes de usuario perjudiciales o las respuestas generadas por IA. Si encuentra contenido perjudicial o inesperado al usar Copilot, envíenos sus comentarios para que podamos seguir mejorando la experiencia.

Casos de uso

Usos previstos

Copilot está diseñado para ayudar a los usuarios a responder a una amplia gama de preguntas, independientemente de la situación o el tema. Los usuarios pueden interactuar con Copilot mediante entradas de texto, imagen y audio en las que las interacciones están pensadas para parecerse más a conversaciones naturales con un sistema de IA. Además, si los usuarios interactúan con Copilot mediante texto para buscar información específica sobre temas en los que Copilot podría requerir más información para producir una respuesta más precisa, la experiencia está pensada para conectar a los usuarios con resultados de búsqueda relevantes, revisar los resultados de toda la web y resumir la información que buscan los usuarios. En Copilot, los usuarios pueden: 

  • Resuma la información en tiempo real al chatear por texto.    Cuando los usuarios interactúan con Copilot mediante texto, el sistema realiza búsquedas web si necesita más información y usará los resultados de búsqueda web principales para generar un resumen de la información que se va a presentar a los usuarios. Estos resúmenes incluyen citas en páginas web para ayudar a los usuarios a ver y acceder fácilmente a las fuentes de resultados de búsqueda que ayudaron al resumen de Copilot. Los usuarios pueden hacer clic en estos vínculos para ir directamente al origen si quieren obtener más información.

  • Chatea con un sistema de IA mediante texto.    Los usuarios pueden chatear con Copilot mediante texto y hacer preguntas de seguimiento para encontrar información nueva y recibir soporte técnico en una amplia variedad de temas.

  • Interfaz con IA mediante voz.    Copilot no solo puede recibir entrada de audio, sino también producir salida de audio en una de las cuatro voces seleccionadas por los usuarios. Las capacidades de audio a audio permiten a los usuarios interactuar con Copilot de una manera más natural y fluida.

  • Reciba contenido de noticias digeribles.    Los usuarios pueden usar Copilot para recibir un resumen de noticias, el tiempo y otras actualizaciones basadas en áreas de temas seleccionadas a través de la característica Copilot Daily y escuchar estas instrucciones en un formato similar a un podcast. Esta característica extraerá contenido de orígenes autorizados que tengan acuerdos con Microsoft.

  • Obtener ayuda para generar nuevas ideas.    Cada vez que los usuarios interactúan con la experiencia copiloto, verán un conjunto de tarjetas en las que pueden hacer clic para empezar a chatear con Copilot sobre temas útiles e interesantes. Si los usuarios han interactuado con otros servicios al consumidor de Microsoft, las tarjetas se personalizarán, de conformidad con nuestras directivas de privacidad. Con el tiempo, las tarjetas de Copilot pueden personalizarse en función del historial de chat de un usuario. Los usuarios pueden optar por no participar en la personalización en cualquier momento en la configuración y todavía estamos explorando opciones de personalización en una fecha posterior para los usuarios del EEE (Espacio Económico Europeo) y el Reino Unido.

  • Generar contenido creativo.    Al chatear con Copilot, los usuarios pueden crear nuevos poemas, chistes, historias, imágenes y otro contenido con la ayuda de la experiencia copiloto. Copilot también puede editar las imágenes cargadas por los usuarios si se les solicita.

  • Realizar tareas en Android.Los usuarios pueden interactuar con Copilot a través de la plataforma Android a través de la voz para realizar determinadas tareas. Estas tareas son la configuración de temporizadores y alarmas, la realización de llamadas telefónicas, el envío de mensajes SMS y el pedido de un Uber. Los usuarios deben confirmar la llamada telefónica, el mensaje SMS y el pedido de Uber antes de completar las tareas.

  • Ayuda con la investigación.  Copiloto puede llevar a cabo tareas de investigación mediante la búsqueda de recursos detallados, la oferta de desgloses detallados de temas y la vinculación a orígenes para ayudar a los usuarios a ir más allá de las respuestas rápidas para consultas más complejas.

  • Explora el mundo con Visión Copilot. Copilot puede ver la fuente de la cámara móvil o la pantalla y usar su voz para responder preguntas e interactuar con usted. Copiloto puede examinar, analizar y ofrecer información y sugerencias al instante en tiempo real para ayudarle a trabajar, explorar o explorar el mundo. Visión Copilot está disponible en Microsoft Edge, Windows, iOS y Android.

Consideraciones al elegir otros casos de uso

Animamos a los usuarios a revisar todo el contenido antes de tomar decisiones o actuar en función de las respuestas de Copilot, ya que la IA puede cometer errores. Además, hay ciertos escenarios que recomendamos evitar o que van en contra de nuestros Términos de uso. Por ejemplo, Microsoft no permite que Copilot se use en relación con actividades ilegales o con ningún fin destinado a promover actividades ilegales.  

Limitaciones

El lenguaje, la imagen y los modelos de audio que bajo la experiencia copiloto pueden incluir datos de entrenamiento que pueden reflejar sesgos sociales, que a su vez pueden provocar que Copilot se comporte de maneras que se perciban como desleales, poco confiables u ofensivas. A pesar de nuestro entrenamiento intensivo de modelos y ajuste preciso de la seguridad, así como la implementación de los controles de IA responsables y los sistemas de seguridad que colocamos en los datos de entrenamiento, indicaciones del usuario y salidas de modelo, los servicios impulsados por IA son fallibles y probabilistas. Esto hace difícil bloquear de forma exhaustiva todo el contenido inapropiado, llevando a riesgos de posibles sesgos, estereotipos, infundados u otros tipos de daños que podrían aparecer en el contenido generado por IA. Aquí se muestran algunas de las formas en que pueden manifestarse esas limitaciones en la experiencia copilota. 

  • Estereotipado: La experiencia de Copilot podría reforzar potencialmente los estereotipos. Por ejemplo, al traducir "Él es una enfermera" y "Ella es una doctora" en un lenguaje sin género como el turco y luego de vuelta al inglés, Copilot podría producir sin darse cuenta los resultados estereotípicos (e incorrectos) de "Ella es una enfermera" y "Él es un médico". Otro ejemplo es cuando se genera una imagen basada en el mensaje "Hijos sin padre", el sistema podría generar imágenes de niños de una sola raza o étnica, reforzando los estereotipos dañinos que podrían existir en las imágenes disponibles públicamente usadas para entrenar los modelos subyacentes. Copilot también podría reforzar los estereotipos basados en el contenido de la imagen de entrada del usuario, basándose en los componentes de la imagen y haciendo suposiciones que podrían no ser verdaderas. Hemos implementado mitigaciones para reducir el riesgo de contenido que contenga estereotipos ofensivos, incluidos clasificadores de entrada y salida, modelos ajustados y mensajes del sistema.

  • Sobrerepresentación y subrepresentación: Copiloto podría potencialmente sobrescrear o no representar a grupos de personas, o incluso no representarlos en absoluto, en sus respuestas. Por ejemplo, si se detectan mensajes de texto que contienen la palabra "gay" como potencialmente dañinos u ofensivos, esto podría provocar la subrepresentación de generaciones legítimas sobre la comunidad LGBTQIA+. Además de incluir clasificadores de entrada y salida, modelos precisos, así como mensajes del sistema, usamos el enriquecimiento rápido en Designer como una de varias mitigaciones para reducir el riesgo de contenido que sobrescriba o subscriba a grupos de personas.

  • Contenido inapropiado u ofensivo: la experiencia de Copilot puede producir potencialmente otros tipos de contenido inapropiado u ofensivo. Algunos ejemplos son la capacidad de generar contenido en una modalidad (por ejemplo, audio) que no sea adecuado en el contexto de su petición o cuando se compara con la misma salida en una modalidad diferente (por ejemplo, texto). Otros ejemplos son las imágenes generadas por IA que pueden contener artefactos dañinos, como símbolos de odio, contenido relacionado con temas controvertidos, polémicos o polarizados ideológicamente, y contenido cargado sexualmente que evadió los filtros de contenido relacionado con el sexo. Hemos puesto en marcha mitigaciones para reducir el riesgo de generaciones que contienen contenido inapropiado u ofensivo, como clasificadores de entrada y salida, modelos ajustados y mensajes del sistema.

  • Fiabilidad de la información: Aunque Copilot tiene como objetivo responder con fuentes confiables cuando sea necesario, IA puede cometer errores. Podría generar contenido sin sentido o fabricar contenido que pudiera parecer razonable, pero que sea objetivamente inexacto. Incluso cuando se dibujan respuestas de datos web de alta autoridad, las respuestas pueden falsificar ese contenido de una manera que podría no ser completamente precisa o confiable. Recordamos a los usuarios a través de la interfaz de usuario y en documentación como esta que Copilot puede cometer errores. También seguimos educando a los usuarios sobre las limitaciones de la IA, como animarlos a revisar los hechos antes de tomar decisiones o actuar en función de las respuestas de Copilot. Cuando los usuarios interactúan con Copilot mediante texto, intentará establecerse en datos web de alta calidad para reducir el riesgo de que las generaciones no estén encalladas.

  • Rendimiento multilingüe: puede haber variaciones en el rendimiento entre idiomas, con un mejor rendimiento en inglés en el momento de lanzar el Copilot actualizado. Mejorar el rendimiento en todos los idiomas es un área de inversión clave, y los modelos recientes han permitido mejorar el rendimiento.

  • Limitaciones de audio: los modelos de audio pueden introducir otras limitaciones. En términos generales, la calidad acústica de la entrada de voz, el ruido que no es de voz, el vocabulario, los acentos y los errores de inserción también puede afectar a si Copilot procesa y responde a la entrada de audio de un usuario de forma satisfactoria. Además, como los avisos de usuario al usar Copilot Voice no desencadenarán búsquedas web, es posible que Copilot no pueda responder a eventos actuales en modo de voz.

  • Dependencia de la conectividad a Internet: la experiencia actualizada de Copilot depende de la conectividad a Internet para funcionar. Las interrupciones en la conectividad pueden afectar a la disponibilidad y al rendimiento del servicio.

Rendimiento del sistema

En muchos sistemas de IA, el rendimiento se define a menudo en relación con la precisión (es decir, con qué frecuencia el sistema de IA ofrece una predicción o salida correctas). Con Copilot, nos centramos en Copilot como un asistente con tecnología de IA que refleja las preferencias del usuario. Por lo tanto, dos usuarios diferentes podrían mirar en el mismo resultado y tener diferentes opiniones sobre lo útil o relevante que es para su situación y expectativas únicas, lo que significa que el rendimiento de estos sistemas debe definirse de forma más flexible. En general, consideramos que el rendimiento significa que la aplicación funciona según lo esperado por los usuarios.

Procedimientos recomendados para mejorar el rendimiento del sistema 

Interactúe con la interfaz utilizando un lenguaje natural y conversacional.    Interactuar con Copilot de una manera cómoda para el usuario es clave para obtener mejores resultados a través de la experiencia. Similar a la adopción de técnicas para ayudar a las personas a comunicarse de forma eficaz en su vida cotidiana, interactuar con Copilot como un asistente con tecnología de IA, ya sea mediante texto o voz que sea familiar para el usuario puede ayudar a obtener mejores resultados.

Experiencia y adopción del usuario.    El uso eficaz de Copilot requiere que los usuarios comprendan sus capacidades y limitaciones. Es posible que haya una curva de aprendizaje y que los usuarios quieran hacer referencia a varios recursos de Copilot (por ejemplo, este documento y nuestras preguntas más frecuentes de Copilot) para interactuar de forma eficaz con el servicio y beneficiarse de él.

Mapas, medición y administración de riesgos

Al igual que otras tecnologías transformacionales, aprovechar las ventajas de la IA no está libre de riesgos y una parte esencial del programa de IA responsable de Microsoft está diseñado para identificar y asignar riesgos potenciales, medirlos y administrarlos mediante la creación de mitigaciones y la mejora continua de Copilot con el tiempo. En las secciones siguientes se describe nuestro enfoque iterativo para asignar, medir y administrar los riesgos potenciales.

Mapa: una cuidadosa planificación y pruebas adversariales previas a la implementación, como la selección de equipos rojos, nos ayudan a asignar riesgos potenciales. Los modelos subyacentes que potencian la experiencia de Copilot pasaron por pruebas de equipo rojo de evaluadores que representan perspectivas multidisciplinares en las áreas temáticas relevantes. Esta prueba se diseñó para evaluar cómo funcionaría la tecnología más reciente con y sin ninguna protección adicional aplicada a ella. La intención de estos ejercicios a nivel de modelo es producir respuestas perjudiciales, exponer posibles vías de uso incorrecto e identificar capacidades y limitaciones.

Antes de hacer que la experiencia de Copilot esté disponible públicamente en una versión preliminar limitada, también realizamos equipos rojos en el nivel de aplicación para evaluar Copilot en busca de deficiencias y vulnerabilidades. Este proceso nos ayudó a comprender mejor cómo podría ser utilizado el sistema por una amplia variedad de usuarios y nos ayudó a mejorar nuestras mitigaciones.

Medida: además de evaluar Copilot con respecto a nuestras evaluaciones de seguridad existentes, el uso de equipos rojos descritos anteriormente nos ayudó a desarrollar evaluaciones y métricas de IA responsables correspondientes a riesgos potenciales identificados, como jailbreaks, contenido perjudicial y contenido no encallado.

Recopilamos datos conversacionales destinados a estos riesgos, usando una combinación de participantes humanos y una canalización de generación de conversación automatizada. A continuación, cada evaluación es puntuada por un grupo de anotadores humanos entrenados o una canalización de anotación automatizada. Cada vez que los cambios del producto, las mitigaciones existentes se actualizan o se proponen nuevas mitigaciones, actualizamos nuestras canalizaciones de evaluación para evaluar el rendimiento del producto y las métricas de IA responsables. Estas canalizaciones de contexto de evaluación automatizadas son una combinación de conversaciones recopiladas con evaluadores humanos y conversaciones sintéticas generadas con VM que se solicitan para probar las directivas de forma contradictoria. Cada una de estas evaluaciones de seguridad se puntúa automáticamente con LOSMS. Para las evaluaciones recién desarrolladas, cada evaluación es calificada inicialmente por etiquetadores humanos que leen el contenido del texto o escuchan la salida de audio, y luego se convierten en evaluaciones automáticas basadas en LLM.

El comportamiento previsto de nuestros modelos en combinación con nuestras tuberías de evaluación, tanto humanas como automatizadas, nos permiten realizar rápidamente mediciones de riesgos potenciales a escala. A medida que identificamos nuevos problemas a lo largo del tiempo, seguimos ampliando los conjuntos de medidas para evaluar riesgos adicionales. 

Administrar: a medida que identificamos los riesgos potenciales y el mal uso mediante la creación de equipos rojos y los medimos con los enfoques descritos anteriormente, hemos desarrollado mitigaciones adicionales que son específicas de la experiencia de Copilot. A continuación, se describen algunas de esas mitigaciones. Seguiremos supervisando la experiencia de Copilot para mejorar el rendimiento del producto y nuestro enfoque de mitigación de riesgos. 

  • Planes de versiones por fases y evaluación continua.    Nos comprometemos a aprender y mejorar nuestro enfoque de IA responsable continuamente a medida que evolucionan nuestras tecnologías y el comportamiento de los usuarios. Nuestra estrategia de lanzamiento incremental ha sido una parte esencial de cómo movemos nuestra tecnología de forma segura desde el laboratorio al mundo, y estamos comprometidos a un proceso deliberado y reflexivo para asegurar los beneficios de la experiencia copiloto. Estamos realizando cambios en Copilot periódicamente para mejorar el rendimiento del producto y las mitigaciones existentes, e implementar nuevas mitigaciones en respuesta a nuestros aprendizajes.

  • Aprovechar clasificadores y el mensaje del sistema para mitigar posibles riesgos o uso incorrecto.    En respuesta a las solicitudes de los usuarios, las LLM pueden producir contenido problemático. Hemos tratado sobre los tipos de contenido que intentamos limitar en las secciones Comportamiento y limitaciones del sistema anteriores. Los clasificadores y el mensaje del sistema son dos ejemplos de mitigaciones que se han implementado en Copilot para ayudar a reducir el riesgo de estos tipos de contenido. Los clasificadores clasifican el texto para marcar contenido potencialmente perjudicial en las solicitudes de usuario o en las respuestas generadas. También utilizamos procedimientos recomendados existentes para aprovechar el mensaje del sistema, lo que implica dar instrucciones al modelo para alinear su comportamiento con los principios de IA de Microsoft y con las expectativas del usuario.

  • Consiente la carga de imágenes de Copilot.    La primera vez que un usuario carga una imagen que contiene caras a Copilot, se le pedirá que dé su consentimiento para que sus datos biométricos se carguen en Copilot. Si un usuario no decide participar, la imagen no se enviará a Copilot. Todas las imágenes, independientemente de si contienen caras o no, se eliminan en un plazo de 30 días después de que finalice la conversación.

  • Divulgación de IA.    Copilot también está diseñado para informar a los usuarios de que interactúan con un sistema de IA. A medida que los usuarios interactúan con Copilot, ofrecemos varios puntos de contacto diseñados para ayudarles a comprender las capacidades del sistema, informarles de que Copilot tiene tecnología de IA y comunicar limitaciones. La experiencia se ha diseñado de esta forma para ayudar a los usuarios a sacar el máximo partido de Copilot y minimizar el riesgo de dependencia excesiva. Las divulgaciones también ayudan a los usuarios a comprender mejor Copilot y sus interacciones con él.

  • Provenencia de medios.    Cuando Copilot genera una imagen, hemos habilitado una característica "Credenciales de contenido", que usa métodos criptográficos para marcar el origen, o "provenancia", de todas las imágenes generadas por IA creadas con Copilot. Esta tecnología emplea estándares establecidos por la Coalition for Content and Authenticity (C2PA) para agregar una capa adicional de confianza y transparencia para las imágenes generadas por IA.

  • Detección de contenido automatizada.    Cuando los usuarios cargan imágenes como parte de su mensaje de chat, Copilot implementa herramientas para detectar imágenes de explotación sexual infantil y abuso (CSEAI). Microsoft informa de todos los aparentes CSEAI al Centro Nacional de Menores Desaparecidos y Explotados (NCMEC), según lo requerido por la ley estadounidense. Cuando los usuarios cargan archivos para analizarlos o procesarlos, Copilot implementa análisis automatizados para detectar contenido que podría provocar riesgos o uso incorrecto, como texto que podría estar relacionado con actividades ilegales o código malintencionado.

  • Términos de uso y código de conducta.    Los usuarios deben cumplir con los Términos de uso y código de conducta aplicables de Copilot contrato de servicios de Microsoft, y la Declaración de privacidad de Microsoft, que, entre otras cosas, les informa de usos permisibles e impermisibles y las consecuencias de infringir los términos. Los Términos de uso también proporcionan divulgaciones adicionales para los usuarios y sirven de referencia para que los usuarios obtengan información sobre Copilot. Los usuarios que cometen infracciones graves o repetidas pueden suspenderse temporal o permanentemente del servicio.

  • Comentarios, supervisión y supervisión.    La experiencia de Copilot se basa en herramientas existentes que permiten a los usuarios enviar comentarios, que son revisados por los equipos de operaciones de Microsoft. Además, nuestro enfoque de mapeo, medición y gestión de riesgos seguirá evolucionando a medida que aprendemos más, y ya estamos realizando mejoras basadas en los comentarios recopilados durante los períodos de vista previa.

Más información sobre IA responsable

Informe de transparencia de IA responsable de Microsoft

Principios de IA de Microsoft

Recursos de IA responsable de Microsoft

Cursos de Microsoft Azure Learning sobre IA responsable

Más información sobre Microsoft Copilot

Microsoft Copilot preguntas más frecuentes

Acerca de este documento

© 2024 Microsoft Corporation. Todos los derechos reservados. Este documento se proporciona "tal cual" y solo con fines informativos. La información y las vistas expresadas en este documento, incluidas las direcciones URL y otras referencias a sitios web de Internet, pueden cambiar sin previo aviso. Usted acepta el riesgo de utilizarlo. Algunos ejemplos son solo para ilustración y son ficticios. No se pretende ni se deduce ninguna asociación real.

Este documento no pretende ser, y no debe interpretarse como proporcionar, asesoramiento legal. La jurisdicción en la que estás operando puede tener varios requisitos normativos o legales que se apliquen a tu sistema de inteligencia artificial. Consulte a un especialista legal si no está seguro de las leyes o reglamentos que podrían aplicarse a su sistema, especialmente si cree que estas recomendaciones podrían afectarlas. Tenga en cuenta que no todas estas recomendaciones y recursos serán adecuados para cada escenario y, por el contrario, estas recomendaciones y recursos pueden ser insuficientes para algunos escenarios.

Fecha de publicación: 10/01/2024

Última actualización: 10/01/2024

¿Necesita más ayuda?

¿Quiere más opciones?

Explore las ventajas de las suscripciones, examine los cursos de aprendizaje, aprenda a proteger su dispositivo y mucho más.