Cargando...
Saltar al contenido principal

Integración de AI

El Microservicio de Integración de AI funciona como una plataforma centralizada diseñada para gestionar y simplificar las integraciones con varios proveedores de AI. Actualmente, el microservicio está integrado con OpenAI, lo que permite interactuar con sus capacidades de AI.

Cómo Crear un Asistente

  1. Crear una Cuenta en OpenAI
  • Visita OpenAI Signup y sigue las instrucciones para crear una cuenta.
  1. Crear una API Key de OpenAI

Captura de pantalla del botón Create API Key en la esquina superior derecha de la pantalla

  • Proporciona un nombre, selecciona el proyecto a usar y configura el nivel de seguridad deseado (restringido, solo lectura o permisos completos).

  • Copia y guarda la API key en un lugar seguro. No podrás verla de nuevo, así que asegúrate de almacenarla de forma segura para su uso futuro.

  1. Crear un Asistente

Captura de pantalla del botón Create API Key en la esquina superior derecha de la pantalla

  • Asigna un nombre al asistente.

  • Escribe instrucciones detalladas sobre cómo debe interactuar el asistente. Las instrucciones del sistema son utilizadas por el asistente y no deben superar los 256,000 caracteres.

  • Agrega los archivos necesarios para la base de conocimiento del asistente y activa la herramienta 'File Search'. Los recursos requeridos dependen de las herramientas que usará el asistente. Por ejemplo, la herramienta code_interpreter requiere una lista de IDs de archivo, mientras que la herramienta file_search requiere una lista de IDs de almacenamiento vectorial.

Captura de pantalla del botón Create API Key en la esquina superior derecha de la pantalla

Cómo Crear Agentes en el XR Editor

  1. Crear un Proyecto en el XR Editor
  • Abre tu proyecto en el XR Editor.

  • En el menú de Elementos, selecciona AI Agent.

Captura de pantalla del botón Create API Key en la esquina superior derecha de la pantalla

  1. Configurar Parámetros para el Agente

En el Properties Panel del AI Agent, puedes configurar los parámetros para conectar tu asistente.

Captura de pantalla del botón Create API Key en la esquina superior derecha de la pantalla

  • Provider: Selecciona el servicio que el agente usará para procesar las solicitudes del usuario. Actualmente, solo se admite OpenAI.

  • OpenAI API Key: Ingresa la API key secreta que creaste anteriormente. Asegúrate de cifrar esta clave antes de publicar el proyecto.

  • Agent Name: El nombre que aparecerá en la interfaz de chat.

  • Assistant ID: Este es el ID de la base de conocimiento del agente. Para OpenAI, comienza con asst_, seguido de un identificador único. Puedes encontrar este ID debajo del campo "Name" en la página del asistente de OpenAI.

  • Voice: Elige la estrategia de voz para las respuestas del agente:

    • OpenAI: Utiliza la generación de voz de OpenAI.

    • WebAPI: Utiliza la síntesis de voz basada en navegador. Ten en cuenta que algunos navegadores pueden no admitir esta función, y otros pueden sonar robóticos. Google Chrome generalmente ofrece el mejor rendimiento.

    • Silent: Desactiva la función de voz. El agente solo se comunicará a través del chat de texto.

  • Emit Events: Habilita esta opción para permitir que el agente emita eventos para su uso en scripting. Cuando está habilitado, el agente emitirá los siguientes eventos: user-enter, user-leave, agent-talk-start, agent-talk-talking, agent-talk-end, agent-thinking.

    • user-enter: Indica que un usuario entra en la región de proximidad del agente. Este evento se emite solo si ‘Emit events’ está habilitado y la proximidad está activada en el componente AI Agent.

    • user-leave: Se emite cuando el usuario sale de la región de proximidad, si 'Emit events' está habilitado y la proximidad está en uso.

    • agent-talk-start: Se emite cada vez que el agente comienza a hablar (solo una vez al inicio). También se emite cuando comienza la secuencia de síntesis de voz.

    • agent-talk-talking: Se emite durante el discurso del agente en cada cuadro, enviando la amplitud modulada de la onda sonora como un valor flotante que indica la intensidad del audio. Este evento puede usarse para animar el escalado de avatares mientras hablan.

      Ejemplo:

      bot.addEventListener('agent-talk-progress', (amp) => { ... })

      amp es similar al valor utilizado en MUDz para la animación del escalado de los avatares cuando hablan. Aquí, tomaríamos este valor para enviar el audio del agente hablando.

    • agent-talk-end: Se emite cuando el agente deja de hablar.

    • agent-thinking: Se emite cuando el agente está pensando, es decir, cuando los puntos aparecen en el chat.

  • Enable Proximity: Esta función activa eventos cuando un usuario entra o sale del rango de proximidad del agente. También puedes configurar al agente para que envíe un mensaje cuando un usuario entre o salga del área de proximidad.