Artikler

Falsk generasjon

Tilbake 31. januar 2022 publiserte vi på Lailas blogg første artikkel sammensatt av en generativ algoritme, for å være klar en algoritme som følger den samme teknologiske arkitekturen til ChatGPT utviklet av OpenAI.

Det var ikke den første, og det ville ikke være den siste definitiva publiserte vi 4 som alltid eksplisitt angir hvem de ble skrevet av.

Men eksperimentene gikk videre, vi genererte dusinvis av innhold inntil algoritmen, innenfor et fokus på eiendomsmarkedsføringsutsikter i 2023, rapporterte følgende sitat:

"Hong Kong Home Buyers Association President Mark Chien-hang sa til South China Morning Post at selv om verdien av nylig ferdigstilte boliger i territoriet synker, er salgsvolumet fortsatt høyt. "Dette er fordi folk med solide investeringsplaner allerede har kommet inn på markedet fra utlandet," sa Chien-hang.

element av trygghet

Dette sitatet dukket opp som en element av trygghet passer perfekt inn i artikkelens kontekst. Men før vi sendte den på nettet bestemte vi oss for å verifisere kilden for fullstendighetens skyld med det formål å sitere den på riktig måte. Vel, det vi fant ut er at Mark Chien-hang ikke eksisterer, akkurat som det ikke er noen Hong Kong Home Buyers Association. Den siterte teksten vises ikke på nettet, og hvis noen skulle tro at det kan være arkiver med informasjon som mater disse AI-ene som ikke er direkte tilgjengelige på nettet, vel, det er ikke tilfelle: sitatet er fullstendig oppfunnet!

Generative AI-er har muligheten til å "generere" innhold i stilen og formen til innholdet de er trent på, men de "lagrer" ikke dataene og er ikke i stand til å gjenopprette den til sin opprinnelige form. Generativ AI fungerer som svarte bokser, som består av kunstige nevrale nettverk som ingen form for revers engineering. Med andre ord blir treningsdataene tall og det er ingen direkte sammenheng mellom disse tallene og dataene som genererte dem.

Til dags dato finner de fortsatt ingen kommersiell anvendelse på grunn av risikoen for at de kan gi helt feil informasjon i sensitive sammenhenger.

OpenAI-vilkårene for bruk for ChatGPT lyder: 

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

«Innganger og utganger skal betraktes som «innhold». [...] Brukeren er ansvarlig for innholdet med hensyn til garantien for at det ikke bryter noen artikkel i loven [...]»

Hvis informasjonen generert av ChatGPT utsetter de som bruker den for risikoen for å publisere falske, ærekrenkende eller andre brudd på loven, beskytter OpenAI seg selv av denne grunnen ved å fraskrive seg ethvert ansvar for avsløring av innhold generert av dets egen kunstige intelligens.

For øyeblikket de store hodene til maskinlæring de har ennå ikke vært i stand til å produsere noe bedre enn systemer som svarer på alle spørsmål bare ved å lyve gjennom tennene. Og hvis disse AI-ene noen ganger reagerer riktig, er det en ren tilfeldighet og ikke noe mer.

Artikkel av Gianfranco Fedele

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Siste artikler

Fremtiden er her: Hvordan shippingindustrien revolusjonerer den globale økonomien

Marinesektoren er en ekte global økonomisk makt, som har navigert mot et 150 milliarder marked...

1 mai 2024

Utgivere og OpenAI signerer avtaler for å regulere flyten av informasjon som behandles av kunstig intelligens

Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...

30 april 2024

Nettbetalinger: Her er hvordan strømmetjenester får deg til å betale for alltid

Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...

29 april 2024

Veeam har den mest omfattende støtten for løsepengevare, fra beskyttelse til respons og gjenoppretting

Coveware by Veeam vil fortsette å tilby responstjenester for cyberutpressing. Coveware vil tilby kriminaltekniske og utbedringsmuligheter...

23 april 2024