De första dagarna av april, den italienska integritetsgaranten har beordrat OpenAI att sluta behandla italienska användares data.
Italien är inte det enda landet som brottas med den snabba utvecklingen av AI och dess konsekvenser för samhället och integriteten. Andra regeringar skapar sina egna regler för AI, som oavsett om de nämner det eller integenerativ AI, kommer de utan tvekan att röra vid den.
ChatGPT är inte tillgängligt i Kina och inte heller i olika länder med hård internetcensur som Nordkorea och Iran. Det är inte officiellt blockerat, men OpenAI tillåter inte användare från landet att registrera sig.
Flera stora teknikföretag i Kina utvecklar alternativ. Baidu, Alibaba och JD.com, några av de största kinesiska teknikföretagen, har tillkännagett innovativa projekt för generativ AI.
Kina har varit angelägen om att se till att dess teknikjättar utvecklar produkter i linje med dess strikta regler.
Förra månaden införde Peking en förordning om så kallade deepfakes, syntetiskt genererade eller förändrade bilder, videor eller texter skapade med hjälp av artificiell intelligens.
USA har ännu inte föreslagit formella regler för att få tillsyn över AI-teknik.
Landets National Institute of Science and Technology har utvecklat en nationella ramar som erbjuder företag som använder, designar eller implementerar system för artificiell intelligens vägledning om att hantera risker och potentiella skador.
Men det fungerar på frivillig basis, vilket innebär att företag inte ska få konsekvenser för att inte följa reglerna.
Hittills har inga åtgärder vidtagits för att begränsa ChatGPT i USA.
EU förbereder sin AI-lag. Europeiska kommissionen diskuterar för närvarande första lagstiftningen i världen om artificiell intelligens kallas AI Act.
Men det verkar inte vara benäget att förbjuda AI-system, enligt EU-kommissionens vice ordförande Margrethe Vestager.
"Oavsett vilken teknik vi använder, måste vi fortsätta att främja våra friheter och skydda våra rättigheter", skrev han på Twitter. "Det är därför vi inte reglerar AI-teknik, vi reglerar användningen av AI. Låt oss inte kasta bort det som tog decennier att bygga på några år."
I ett blogginlägg denna vecka varnade Storbritanniens informationskommissionärs kontor för att AI-utvecklare har nej "ingen ursäkt" för att ha gjort ett misstag när det gäller datasekretess och att de som inte följer dataskyddslagen kommer att ta konsekvenserna.
Som ett uppenbart svar på farhågorna har OpenAI släppt ett blogginlägg som beskriver dess inställning till AI-integritet och säkerhet.
Företaget sa att det arbetar för att ta bort personlig information från träningsdata där det är möjligt, förfinar sina modeller för att avslå förfrågningar om personlig information från individer och agerar på förfrågningar om att radera personlig information från sina system.
Irlands dataskyddskommission sa att de "följde den italienska tillsynsmyndigheten för att förstå grunden för deras agerande", och tillade att den "kommer att samordna med alla EU:s dataskyddsmyndigheter i denna fråga".
Frankrikes dataskyddsmyndighet, CNIL, sa att de undersöker efter att ha mottagit två integritetsklagomål om ChatGPT. Tillsynsmyndigheter har också kontaktat sina italienska motsvarigheter för att ta reda på mer om grunden för förbudet.
Ercole Palmeri
De kan också vara intresserade av dessa föremål...
En oftalmoplastikoperation med Apple Vision Pro kommersiella tittare utfördes på Catania Polyclinic...
Att utveckla finmotorik genom färgläggning förbereder barn för mer komplexa färdigheter som att skriva. Att färglägga…
Marinesektorn är en sann global ekonomisk makt, som har navigerat mot en marknad på 150 miljarder...
I måndags tillkännagav Financial Times ett avtal med OpenAI. FT licensierar sin journalistik i världsklass...