lydian-logo
bitcoin

Bitcoin (BTC)

Pris
$ 64,858.38
ethereum

Ethereum (ETH)

Pris
$ 3,178.50
Cardano

Cardano (ADA)

Pris
$ 0.475911
XRP

XRP (XRP)

Pris
$ 0.532062
litecoin

Litecoin (LTC)

Pris
$ 84.20
stjernernes

Stellar (XLM)

Pris
$ 0.116296

AI21 Labs introducerer anti-hallucinationsfunktion til GPT-chatbots

Udgivet den

Juli 21, 2023
Læsetid:2 minutter, 44 sekunder

AI21 Labs lancerede for nylig Contextual Solutions, en spørgsmål-og-svar-motor til store sprogmoder (LLM'er).

Når det er relateret til en LLM, tillader den helt nye motor kunder at tilføje deres helt egne informationsbiblioteker for at begrænse mannequinens output til bestemte oplysninger.

Fremkomsten af ​​ChatGPT og sammenlignelig syntetisk intelligens (AI) merchandise har forårsaget et paradigmeskift for AI-virksomheden, men en mangel på tro gør adoption besværlig for mange organisationer.

På linje med analysemedarbejdere tilbringe De bruger næsten halvdelen af ​​deres arbejdsdage på at finde information. Dette repræsenterer et fantastisk alternativ for chatbots, der kan udføre søgefunktioner; Ikke desto mindre bør de fleste chatbots ikke geare i retning af virksomheder.

AI21 udviklede kontekstuelle løsninger til at bygge bro mellem chatbots til almindelig brug og udbydere af spørgsmål og svar på virksomhedsniveau ved at give kunderne magten til at kanalisere deres helt egne informations- og dokumentbiblioteker.

I overensstemmelse med en weblog opsat af AI21, Contextual Solutions tilladt Kunder kan drive AI-reaktioner uden at skulle genoptræne mode og fjerne nogle af de største hindringer for adoption:

"De fleste virksomheder opdager implementering besværlig [AI] med henvisning til værdi, kompleksitet og modes manglende specialisering i deres organisationsoplysninger, hvilket fører til forkerte, "hallucinerende" eller kontekst-upassende svar."

En af mange fremragende udfordringer med at skabe nyttige LLM'er som OpenAI's ChatGPT eller Google's Bard er at instruere dem til præcis usikkerhed.

Når en forbruger stiller spørgsmål til en chatbot, svarer den normalt, selv når dens fil ikke ville indeholde tilstrækkelig information til at levere faktuelle oplysninger. Under disse omstændigheder, som et alternativ til at udstede et utroværdigt svar som "Jeg ved det ikke", fremstiller LLM'er typisk information uden faktuelt grundlag.

Forskere kalder disse resultater "hallucinationer" som et resultat af, at maskinerne skaber information, der ikke ligner den aktuelle i deres datasæt, som folk ser problemer, der ikke rigtig er der.

Vi er glade for at introducere Contextual Solutions, en API-løsning, hvor løsningerne er baseret for det meste på virksomhedsinformation og giver ikke plads til AI-hallucinationer.

➡️ https://t.co/LqlyBz6TYZ pic.twitter.com/uBrXrngXhW

— AI21 Labs (@AI21Labs) Juli 19, 2023

I overensstemmelse med A121 burde kontekstuelle svar fuldt ud afbøde hallucinations-ulempen ved både udelukkende at udsende information, når den er relateret til brugerleveret dokumentation, eller ved ikke at udsende noget i nogen henseende.

I sektorer er stedets nøjagtighed ekstra vigtig end automatisering, der ligner økonomi og autoriserede, introduktionen af ​​generative præ-trænede transformatormetoder (GPT) har givet blandede resultater.

Monetære konsulenter fortsætter med at advare, når de bruger GPT-metoder, da de har en tendens til at hallucinere eller forvirre information, selv når de er relateret til internettet og kan hyperlinke til kilder. Og nu advokat indenfor det autoriserede område ansigter Bøder og bøder for at regne med resultater genereret af ChatGPT i en sag.

Ved at forfodre AI-metoder med relateret information og gribe ind tidligere, end systemet kan hallucinere ikke-faktuel information, ser det ud til, at AI21 har formået at afhjælpe hallucinationsmanglen.

Dette kan resultere i masseadoption, især inden for fintech-huset, hvor konventionelle pengeinstitutioner har eksisteret indtil nu de tøver De har omfavnet GPT-knowhow, og cryptocurrency- og blockchain-samfundene har haft blandet succes med at bruge chatbots.

Tilknyttet: OpenAI introducerer "tilpassede rutevejledninger" til ChatGPT, så kunderne ikke skal gentage sig selv med det samme



Kilde link

Glad
Glad
0 %
Sad
Sad
0 %
Spændt
Spændt
0 %
Sleepy
Sleepy
0 %
Vred
Vred
0 %
Surprise
Surprise
0 %
Azeez Mustafa
Azeez begyndte sin FinTech-karrierevej i 2008 efter voksende interesse og intriger om markedsguider og hvordan de formåede at vinde på slagmarken i den finansielle verden. Efter et årti med læring, læsning og træning af branchen, er han nu en eftertragtet handelsprofessionel, teknisk / valutaanalytiker og fondsforvalter - samt en forfatter.
Sidst opdateret : Juli 21, 2023
Top krydsermenumenu-cirkel