Kompensasjon For Stjernetegn
Betydende C -Kjendiser

Finn Ut Kompatibilitet Med Stjernetegn

Google AI vil ta en meningsløs setning du gir den og gir den en mening

FYI

Men Den Har blitt integrert i mer og mer av livene våre de siste årene, har ikke disse integrasjonene alltid vært glatte. AI har vært utsatt for å gjøre noe som heter Hallucinate, og det er når den presenterer falsk informasjon som om det er sant eller bare gjør noe opp.

Artikkelen fortsetter under annonsen

Disse hallusinasjonene kan være alvorlige eller dumme, og når de er dumme, kan ting raskt komme ut av hånden. Tilfelle: Når en X (tidligere Twitter -bruker) la merke til at du kunne strenge enhver gruppe ord sammen, og Google's Gemini Ai ville se det som et formspråk eller vanlig uttrykk og gi det en mening. 'To tørre frosker i en situasjon' er bare ett eksempel. Her er hva vi vet.

 Gemini -logoen.
Kilde: Google
Artikkelen fortsetter under annonsen

Googles Gemini AI mener at 'to tørre frosker i en situasjon' er et vanlig uttrykk.

I et innlegg av Matt Rose (@rose_matt) forklarte han at han hadde bedt Gemini om betydningen av en rekke ord som ikke betyr noe og fått en forklaring.

'Lærte i dag at du kan skrive noe tull i Google Etterfulgt av 'mening', og AI vil anta at du søker i en kjent menneskelig setning og febrilsk kommer med hva den tror det kan bety, 'skrev han.

Eksemplet som Matt brukte var 'to tørre frosker i en situasjon', som Gemini forklarte var et 'metaforisk uttrykk som ofte ble brukt for å beskrive en vanskelig eller vanskelig sosial situasjon. Det er en leken måte å si at en gruppe mennesker, spesielt to, er i en prekær eller ubehagelig vanskeligheter.'

Resultatene hvis du søker på begrepet nå, har AI fjernet, sannsynligvis fordi dette ikke var det beste utseendet for Gemini.

Artikkelen fortsetter under annonsen

Som denne hendelsen gjør det klart, vil Gemini noen ganger bare gjøre noe opp hvis den ikke har et godt svar, forutsatt at personen som søker etter begrepet har noe i tankene. Selv om dette er et ganske lite stakeseksempel, taler det til måten disse resultatene er upålitelige, spesielt når du søker etter noe som kan være relativt uklar.

Artikkelen fortsetter under annonsen

Andre mennesker prøvde det samme.

Etter at Matt la ut sitt eksempel på X, prøvde andre brukere hendene på å lage et formspråk som er meningsløst, og å se hva slags definisjon Google ga det.

En person prøvde dette med uttrykket 'Følelser kan bli skadet, men fisk husker,' og fikk forklaringen du kan forvente at noen som ikke studerte for at testen skulle gi hvis de uansett måtte svare på spørsmålet.

En annen personen prøvde 'Big Winky på skilletbollen,' som ikke er et formspråk nå, men sannsynligvis burde være i nær fremtid.

Selv om det ikke fungerte for hver bruker, fant mange at de kunne få sminke definisjoner for sine sammensatte setninger, og signaliserte at AI, fremfor alt annet, er designet for å gi brukerne et svar, selv om svaret er misvisende eller direkte feil.

Vi har ikke kommet til scenen ennå der AI er komfortable med å innrømme det vi ikke vet. Som alle som noen gang har vært i terapi vet, er det du ikke vet minst halve slaget.