Artikler

Falsk generation

Tilbage den 31. januar 2022 offentliggjorde vi på Lailas blog den første artikel sammensat af en generativ algoritme, for at være klar en algoritme, der følger den samme teknologiske arkitektur som ChatGPT udviklet af OpenAI.

Det var ikke den første, og det ville ikke være den sidste definitiva vi udgav 4, der altid eksplicit angiver, hvem de er skrevet af.

Men eksperimenterne gik videre, vi genererede snesevis af indhold, indtil algoritmen, med fokus på ejendomsmarkedsføringsmuligheder i 2023, rapporterede følgende citat:

"Hong Kong Home Buyers Associations præsident, Mark Chien-hang, fortalte South China Morning Post, at selvom værdien af ​​nyopførte boliger i området er faldende, er salgsvolumen stadig høj. "Det er fordi folk med solide investeringsplaner allerede er kommet ind på markedet fra udlandet," sagde Chien-hang.

element af tryghed

Dette citat dukkede op som en element af tryghed passer perfekt ind i artiklens sammenhæng. Men før vi sendte det online, besluttede vi at verificere kilden for fuldstændighedens skyld med det formål at citere den korrekt. Nå, hvad vi fandt ud af er, at Mark Chien-hang ikke eksisterer, ligesom der ikke er nogen Hong Kong Home Buyers Association. Den citerede tekst vises ikke på nettet, og hvis nogen skulle mene, at der kan være arkiver med information, der fodrer disse AI'er, som ikke er direkte tilgængelige online, ja, det er ikke tilfældet: citatet er fuldstændig opfundet!

Generative AI'er har evnen til at "generere" indhold i stilen og formen af ​​det indhold, de er trænet i, men de "lagrer" ikke dataene og er ude af stand til at gendanne dem til dens oprindelige form. Generativ AI fungerer som sorte bokse, der består af kunstige neurale netværk, som ingen form for reverse engineering. Med andre ord bliver træningsdataene til tal, og der er ingen direkte sammenhæng mellem disse tal og de data, der genererede dem.

Til dato finder de stadig ingen kommerciel anvendelse på grund af risikoen for, at de kan give fuldstændig forkerte oplysninger i følsomme sammenhænge.

OpenAI vilkårene for brug for ChatGPT lyder: 

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

"Input og output skal betragtes som "Indhold". [...] Brugeren er ansvarlig for indholdet med hensyn til garantien for, at det ikke overtræder nogen artikel i loven [...]»

Hvis informationen genereret af ChatGPT udsætter dem, der bruger dem, for risikoen for at offentliggøre falske, ærekrænkende eller andre overtrædelser af loven, beskytter OpenAI sig selv af netop denne grund ved at fralægge sig ethvert ansvar for offentliggørelse af indhold, der er genereret af dets egen kunstige intelligens.

I øjeblikket er de store hoveder machine learning de har endnu ikke været i stand til at producere noget bedre end systemer, der kun besvarer alle spørgsmål ved at ligge gennem tænderne. Og hvis disse AI'er nogle gange reagerer korrekt, er det en ren tilfældighed og intet mere.

Artikel af Gianfranco Fedele

Nyhedsbrev om innovation
Gå ikke glip af de vigtigste nyheder om innovation. Tilmeld dig for at modtage dem via e-mail.

Seneste artikler

Veeam har den mest omfattende support til ransomware, fra beskyttelse til respons og gendannelse

Coveware by Veeam vil fortsætte med at levere responstjenester til cyberafpresning. Coveware vil tilbyde kriminaltekniske og afhjælpende funktioner...

23 April 2024

Grøn og digital revolution: Hvordan prædiktiv vedligeholdelse transformerer olie- og gasindustrien

Forudsigende vedligeholdelse revolutionerer olie- og gassektoren med en innovativ og proaktiv tilgang til anlægsstyring...

22 April 2024

Britisk antitrust-tilsynsmyndighed rejser BigTech-alarm over GenAI

Det britiske CMA har udsendt en advarsel om Big Techs adfærd på markedet for kunstig intelligens. Der…

18 April 2024

Casa Green: energirevolution for en bæredygtig fremtid i Italien

Dekretet om "grønne huse", der er formuleret af Den Europæiske Union for at øge bygningers energieffektivitet, har afsluttet sin lovgivningsproces med...

18 April 2024