AI21 Labs hat kürzlich Contextual Solutions auf den Markt gebracht, eine Frage-und-Antwort-Engine für große Sprachmodelle (LLMs).
In Verbindung mit einem LLM ermöglicht die neue Engine Benutzern das Hinzufügen ihrer eigenen Informationsbibliotheken, um die Ausgaben des Modells auf bestimmte Informationen zu beschränken.
Das Erscheinen von ChatGPT und vergleichbaren Produkten der künstlichen Intelligenz (KI) hat einen Paradigmenwechsel in der KI-Branche ausgelöst, doch mangelndes Vertrauen macht die Einführung für viele Unternehmen schwierig.
Laut Analysemitarbeitern verbringen Sie verbringen nahezu die Hälfte ihres Arbeitstages damit, Informationen zu finden. Dies stellt eine fantastische Alternative für Chatbots dar, die Suchfunktionen ausführen können. Allerdings sollten sich die meisten Chatbots nicht an Unternehmen richten.
AI21 hat kontextbezogene Lösungen entwickelt, um die Lücke zwischen allgemeinen Chatbots und Frage-und-Antwort-Anbietern auf Unternehmensebene zu schließen, indem es Kunden die Möglichkeit gibt, ihre eigenen Informationen und Dokumentbibliotheken zu kanalisieren.
Laut einem Blog von AI21, Contextual Solutions zulässig Kunden können KI-Reaktionen vorantreiben, ohne Modelle umschulen zu müssen, wodurch einige der größten Hindernisse für die Einführung beseitigt werden:
„Die meisten Unternehmen empfinden die Implementierung als schwierig, da sie auf Kosten, Komplexität und mangelnde Spezialisierung der Modelle auf ihre Unternehmensinformationen verweisen, was zu falschen, „halluzinierenden“ oder kontextunangemessenen Antworten führt.“
Eine der großen Herausforderungen bei der Entwicklung hilfreicher LLMs wie ChatGPT von OpenAI oder Bard von Google besteht darin, ihnen die Sicherheit zu vermitteln.
Wenn ein Verbraucher einem Chatbot Fragen stellt, antwortet dieser normalerweise, auch wenn seine Datei nicht genügend Informationen enthalten würde, um sachliche Informationen bereitzustellen. Anstatt eine unseriöse Antwort wie „Ich weiß nicht“ zu geben, fabrizieren LLMs unter diesen Umständen oft Informationen ohne sachliche Grundlage.
Forscher nennen diese Ergebnisse „Halluzinationen“, weil die Maschinen Informationen erzeugen, die nicht wie aktuell in ihren Datensätzen aussehen, wie Menschen, die Dinge sehen, die nicht wirklich vorhanden sind.
Wir freuen uns, Contextual Solutions vorstellen zu können, eine API-Lösung, bei der Lösungen auf Unternehmensdaten basieren und keinen Raum für KI-Ideen lassen.
➡️ https://t.co/LqlyBz6TYZ pic.twitter.com/uBrXrngXhW
— AI21 Labs (@AI21Labs) 19. Juli 2023
Laut A121 sollten kontextbezogene Antworten das Halluzinationsproblem vollständig abmildern, indem sie entweder nur Informationen ausgeben, wenn sie sich auf vom Benutzer bereitgestellte Dokumentation beziehen, oder indem sie überhaupt nichts ausgeben.
In Bereichen, in denen Genauigkeit wichtiger ist als Automatisierung, wie z. B. im Finanz- und Verwaltungsbereich, hat die Einführung generativer vorab trainierter Transformatoren (GPT) zu gemischten Ergebnissen geführt.
Finanzberater raten weiterhin zur Vorsicht bei der Verwendung von GPT-Methoden, da sie dazu neigen, Informationen zu halluzinieren oder zu verwechseln, selbst wenn sie im Internet verfügbar sind, und möglicherweise auf Quellen verweisen. Und jetzt ein Anwalt im autorisierten Bereich Gesichter Bußgelder und Strafen für das Vertrauen auf die von ChatGPT generierten Ergebnisse während eines Falles.
Durch die Vorabfütterung von KI-Systemen mit zugehörigen Informationen und das Eingreifen, bevor das System nicht sachliche Informationen halluzinieren kann, scheint es AI21 gelungen zu sein, das Problem der Halluzination zu lindern.
Dies könnte zu einer Massenakzeptanz führen, insbesondere im Fintech-Bereich, wo bisher herkömmliche Finanzinstitute existierten sie zögern Sie haben sich das GPT-Know-how zu eigen gemacht, und die Kryptowährungs- und Blockchain-Communitys haben mit dem Einsatz von Chatbots höchstens gemischte Erfolge erzielt.
Damit verbundenen: OpenAI führt „maßgeschneiderte Anweisungen“ für ChatGPT ein, damit Benutzer sich nicht jedes Mal wiederholen müssen