AI21 Labs lanzó recientemente Soluciones contextuales, un motor de preguntas y respuestas para modelos de lenguaje extenso (LLM).
Cuando se relaciona con un LLM, el nuevo motor permite a los usuarios agregar sus propias bibliotecas de información para restringir los resultados del modelo a información específica.
La aparición de ChatGPT y productos similares de inteligencia artificial (IA) ha provocado un cambio de paradigma para la industria de la IA, pero la falta de confianza está dificultando la adopción para muchas organizaciones.
De acuerdo con el análisis de los empleados pasar Pasan prácticamente la mitad de sus días laborales tratando de encontrar información. Esto representa una alternativa fantástica para los chatbots capaces de realizar funciones de búsqueda; Sin embargo, la mayoría de los chatbots no deberían estar dirigidos a las empresas.
AI21 desarrolló soluciones contextuales para cerrar la brecha entre los chatbots de uso general y los proveedores de preguntas y respuestas de nivel empresarial al brindarles a los clientes el poder de canalizar su propia información y bibliotecas de documentos.
De acuerdo con un blog publicado por AI21, Contextual Solutions permitido Los usuarios pueden impulsar respuestas de IA sin tener que volver a entrenar modelos, mitigando algunos de los mayores obstáculos para la adopción:
"La mayoría de las corporaciones descubren que la implementación [IA] es problemática citando el valor, la complejidad y la falta de especialización de las modas en su información organizacional, lo que lleva a respuestas incorrectas, "alucinantes" o inapropiadas para el contexto".
Uno de los muchos desafíos excelentes en la creación de LLM útiles como ChatGPT de OpenAI o Bard de Google es instruirlos en la inseguridad precisa.
Cuando un consumidor pregunta a un chatbot, generalmente responde, incluso cuando su archivo no contiene suficiente información para proporcionar información objetiva. En estas circunstancias, en lugar de emitir una respuesta poco confiable como "No sé", los LLM a menudo fabrican información sin ningún fundamento fáctico.
Los investigadores llaman a estos resultados "alucinaciones" porque las máquinas crean información que no se parece a la actual de sus conjuntos de datos, como si las personas vieran cosas que en realidad no existen.
Nos complace presentar Soluciones contextuales, una resolución de API en la que las soluciones se basan principalmente en información empresarial y no dejan lugar a alucinaciones de IA.
➡️ https://t.co/LqlyBz6TYZ pic.twitter.com/uBrXrngXhW
— Laboratorios AI21 (@AI21Labs) 19 de Julio de 2023
De acuerdo con A121, las respuestas contextuales deberían mitigar por completo el problema de la alucinación al generar información únicamente cuando se relaciona con la documentación proporcionada por el usuario, o al no generar nada en absoluto.
En sectores donde la precisión del lugar es más importante que la automatización, como la financiación y la tecnología, la introducción de sistemas de transformadores generativos preentrenados (GPT) ha arrojado resultados mixtos.
Los consultores financieros continúan advirtiendo cuando se utilizan métodos GPT, ya que tienden a alucinar o confundir la información incluso cuando está relacionada con la web y pueden tener hipervínculos a las fuentes. Y ahora un abogado dentro del área autorizada caras Multas y sanciones por contar con los resultados generados por ChatGPT a lo largo de un caso.
Al alimentar previamente los sistemas de IA con información relacionada e intervenir antes de que el sistema pueda alucinar información no fáctica, AI21 parece haber logrado aliviar el problema de la alucinación.
Esto podría resultar en una adopción masiva, especialmente en el espacio fintech donde las instituciones monetarias tradicionales han existido hasta ahora. dudan Han adoptado el conocimiento de GPT, y las comunidades de criptomonedas y blockchain han tenido un éxito combinado, en el mejor de los casos, con el uso de chatbots.
Asociado: OpenAI presenta "direcciones personalizadas" para ChatGPT para que los clientes no tengan que repetirse en cada momento