AI har forårsaket bølger på mange forskjellige felt, fra mønstergjenkjenning i medisin til selvkjørende biler. Conversational AI blir mer og mer vanlig i hverdagen. Den nye chatbot av Bing er bare ett eksempel. Imidlertid har teknologien fortsatt begrensninger, siden den er avhengig av å knuse data og generere svar basert på relaterte ord i stedet for noen reell forståelse av kontekst.
Mens Bings nye chatbot-funksjon er imponerende, bør brukere ikke stole for mye på svarene. Fordi teknologien AI ikke forstår sannheten i det han sier, kan noen ganger gi unøyaktig informasjon. Eksperter sier at du bør bruke chatbotens svar som et utgangspunkt for videre forskning og faktasjekking.
Siden AI-teknologi Ettersom den fortsetter å forbedre seg og bli mer nyttig i hverdagen, er det viktig å vite hva den ikke kan gjøre og hvordan den kan gi deg feil informasjon. Selv om chatbots basert påkunstig intelligens Siden de fra Bing kan gi nyttige sammendrag og lenker til informasjon, bør de brukes i forbindelse med menneskelig forskning og faktasjekking.
What do I need to do to install Windows 11 on my computer
. »)"Let's chat"
eller på knappen "Chat"
nederst i søkefeltet. Hvis du vil gå direkte til chatten, kan du alltid klikke på "Chat"-alternativet på Bing-hjemmesiden."New topic"
(kostikon) ved siden av boksen "Ask me anything..."
, og still et nytt spørsmål.Og det er slik du bruker Bing AI med ChatGPT, og som du kan se, er det annerledes enn tradisjonelle søk. Det er selvfølgelig opp til deg å samhandle med chatboten for å få mest mulig ut av den.
Ercole Palmeri
Marinesektoren er en ekte global økonomisk makt, som har navigert mot et 150 milliarder marked...
Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...
Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...
Coveware by Veeam vil fortsette å tilby responstjenester for cyberutpressing. Coveware vil tilby kriminaltekniske og utbedringsmuligheter...