членовите

Јамка за приватност: вештачката интелигенција во лавиринтот на приватност и авторско право

Ова е првиот од двата написи во кои се осврнувам на деликатната врска помеѓу приватноста и авторското право од една страна, и вештачката интелигенција од друга страна.

Проблематичен однос каде што технолошката еволуција се покажува толку брза што го застарува секое регулаторно прилагодување од неговата прва примена.

Решавањето на трнливите прашања кои ги вклучуваат правата на луѓето и личните податоци бара внимание, компетентност и неопходна дискусија меѓу интелектуалците и специјалистите од нашето време. Откриваме дека не сме доволно брзи во прилагодувањето на социјалните правила на предизвиците што ни ги поставуваат технолошките иновации. Технологиите што се појавуваат се повеќе се наоѓаат себеси како работат на отворено, во тотално отсуство на регулативи кои ја ограничуваат нивната примена, слободни да предизвикуваат штета и затоа тоа да го прават целосно неказнето.

Дали е можно да се замисли контрола што ќе се врати на синџирот на технолошки развој до научното истражување и неговите стратешки цели?

Дали е замисливо да се управува со еволуцијата на нашиот вид додека се одржува цврсто почитување на индивидуалните слободи?

Приватност?

„Колку повеќе се обидувате да се скриете, толку повеќе привлекувате внимание. Зошто е толку важно никој да не знае за тебе?“ – од филмот „Анон“ по сценарио и режија на Ендрју Никол – 2018 година

во филмот "Anon“ во 2018 година, општеството на иднината е темно место, под директна контрола на гигантскиот компјутерски систем наречен Етер, способен да го следи секој агол на нацијата набљудувајќи го преку очите на истите луѓе кои го населуваат. Секое човечко суштество е надгледник во име на Етер и нивната прва одговорност е, се разбира, да се следат себеси и своето однесување.

Етер е најдобриот сојузник на полициските сили: преку Етер, агентите можат да го следат искуството на која било личност со тоа што ќе го преживеат со свои очи и ќе решат секаков вид криминал.

Полицаецот Сал се прашува зошто треба да се борите да ја заштитите вашата приватност: која е поентата кога немате причина да се криете? На крајот на краиштата, во ера во која технологиите што ги градиме за да ја зголемиме безбедноста на нашите домови и нашите улици бараат снимање, следење и проверка на таквите информации во интерес на самите луѓе кои бараат заштита, како можеме да очекуваме да гарантираме нивната приватност?

За да покаже колку е опасно да се има пристап до животите на другите, хакер ќе ја преземе контролата над Етер и ужасен кошмар ќе се спушти врз животите на милиони луѓе: заканата дека ќе мора да ги гледаат како беспомошни гледачи сликите на повеќето измачени моменти од нивниот живот, емитувани директно во нивните мрежници.

Јамка

Le вештачки невронски мрежи кои се во основата на функционирањето на модерните вештачки интелигенции, се вртат околу три главни елементи: основни информации инаку наречени корпус, Еден алгоритам за асимилација на информации и еден меморија за нивно меморирање.

Алгоритмот не е ограничен на банално вчитување на информации во меморијата, тој ги скенира во потрага по елементи кои ги поврзуваат едни со други. Мешавина од податоци и врски ќе бидат префрлени во меморијата која ќе формира a модел.

Во рамките на моделот, податоците и односите се целосно неразлични, поради што реконструкцијата на корпусот на оригинални информации за обука од обучена невронска мрежа е речиси невозможно.

Ова е особено точно кога корпусите содржат големи количини на податоци. Ова е случај со големите јазични системи познати како Large Language Models (накратко LLM) вклучувајќи го и озлогласениот ChatGpt. Тие ја должат својата ефикасност на големиот број информации што се користат во обуката: во моментов за добра обука се потребни најмалку неколку терабајти податоци и со оглед на тоа што еден терабајт одговара на 90 милијарди знаци, приближно 75 милиони страници текст, лесно е да се разбере дека постои толку многу информации потребни.

Но, ако моделите не можат да се де-инженерираат, зошто треба да се запрашаме за проблемот со прекршување на приватноста?

Доминација на податоци

„Кој е луд може да бара да биде изземен од мисии за летови, но кој бара да биде изземен од мисии за летови не е луд“. – заснован на романот „Фати 22“ од Џозеф Хелер.

Билтен за иновации
Не пропуштајте ги најважните вести за иновациите. Пријавете се за да ги добивате по е-пошта.

Собирањето податоци со таква големина што овозможува создавање на проекти како ChatGpt или други слични денес е привилегија на големите мултинационални компании кои со своите дигитални активности успеаја да дојдат до најголемото складиште на информации. во светот: веб.

Гугл и Мајкрософт, кои со години управуваат со пребарувачите кои ја скенираат мрежата и екстраполираат огромни количини на информации, се првите кандидати за создавање на LLM, единствените модели на вештачка интелигенција способни да варат количества информации како оние опишани погоре.

Тешко е да се поверува дека Google или Microsoft ќе можат да ги прикријат личните информации во нивните податоци пред да ги користат како корпус за обука на невронска мрежа. Анонимизирањето информации во случајот со јазичните системи се преведува во идентификација на личните податоци во рамките на корпус и нивна замена со лажни податоци. Ајде да замислиме корпус со големина од неколку терабајти со кој сакаме да обучиме модел и да се обидеме да замислиме колку работа би била потребна за рачно анонимизирање на податоците што ги содржи: тоа би било практично невозможно. Но, ако сакаме да се потпреме на алгоритам за да го направиме тоа автоматски, единствениот систем способен да ја врши оваа работа ќе биде друг подеднакво голем и софистициран модел.

Ние сме во присуство на класичен проблем Catch-22: „за обука на LLM со анонимизирани податоци ни треба LLM способен да ги анонимизира, но ако имаме LLM способен да ги анонимизира податоците, неговата обука не е направена со анонимизирани податоци .

GDPR е застарен

GDPR кој ги диктира (речиси) глобално правилата за почитување на приватноста на луѓето, во светлината на овие теми е веќе стара вест и заштитата на личните податоци вклучени во комплетот за обука не се размислува.

Во GDPR, обработката на личните податоци за целите на учење на општите корелации и врски е само делумно регулирана со член 22 кој вели: „Субјектот на податоците има право да не биде подложен на одлука заснована исклучиво на автоматска обработка, вклучително и профилирање, што произведува правно дејство врз него или што го засега на сличен и значаен начин“.

Овој член ја воведува забраната за контролорите на податоци да ги користат личните податоци на субјектот како дел од целосно автоматизиран процес на одлучување што има директни правни ефекти врз субјектот. Но, невронските мрежи, кои лесно се асимилираат на автоматизираните процеси на одлучување, откако ќе се обучат, се здобиваат со способност да донесуваат автоматски одлуки кои можат да влијаат на животите на луѓето. Но, овие одлуки не се секогаш „логични“. За време на обуката, всушност, секоја невронска мрежа учи да ги поврзува информациите една со друга, често поврзувајќи ги една со друга на апсолутно нелинеарен начин. А отсуството на „логика“ не му ја олеснува работата на законодавецот кој сака да крене штит во одбрана на приватноста на луѓето.

Ако некој исто така одбрал да примени екстремно рестриктивна политика, на пример забрана за користење на какви било чувствителни податоци, освен ако не е експлицитно овластено од сопственикот, легалната употреба на невронски мрежи би била непрактична. И откажувањето од технологиите на невронските мрежи би било голема загуба, само помислете на моделите за анализа обучени со клинички податоци на субјектите на популацијата која била делумно погодена од одредена болест. Овие модели помагаат да се подобрат политиките за превенција преку идентификување на корелации помеѓу елементите присутни во податоците и самата болест, неочекувани корелации кои во очите на лекарите може да изгледаат сосема нелогични.

Управување со потребите

Поставувањето на проблемот со почитување на приватноста на луѓето по неселективно одобрување на неговата наплата со години е во најмала рака лицемерно. Самиот GDPR со својата сложеност е одговорен за бројни манипулации кои овозможуваат добивање овластување за обработка на лични податоци преку искористување на двосмисленоста на клаузулите и тешкотијата за разбирање.

Сигурно ни треба поедноставување на законот што овозможува негова применливост и вистинско образование за свесното користење на личните информации.

Мојот предлог е да не им се дозволи на компаниите да ги знаат личните податоци на корисниците кои се регистрираат за нивните услуги, дури и ако се платени услуги. Употребата на лажни лични податоци од страна на приватни лица треба да се случи автоматски кога тие користат онлајн системи. Употребата на реални податоци треба да биде ограничена само на процесот на купување, осигурувајќи дека тие секогаш се целосно одвоени од базата на податоци за услуги.

Познавањето на вкусовите и преференциите на субјектот без да се дозволи име или лице да се поврзе со овој профил би функционирало како форма на анонимизација спроведена возводно што автоматски ќе овозможи собирање податоци и нивна употреба во системи за автоматизација како што се вештачката интелигенција.

Артиколо ди Gianfranco Fedele

Билтен за иновации
Не пропуштајте ги најважните вести за иновациите. Пријавете се за да ги добивате по е-пошта.

Последни написи

Veeam ја има најсеопфатната поддршка за ransomware, од заштита до одговор и обновување

Coveware од Veeam ќе продолжи да обезбедува услуги за одговор на инциденти на сајбер изнуда. Coveware ќе понуди форензика и способности за санација…

Април 23 2024

Зелена и дигитална револуција: Како предвидливото одржување ја трансформира индустријата за нафта и гас

Предвидливото одржување го револуционизира секторот за нафта и гас, со иновативен и проактивен пристап кон управувањето со постројките.…

Април 22 2024

Антимонополскиот регулатор на Обединетото Кралство го покренува алармот на BigTech поради GenAI

Обединетото Кралство CMA издаде предупредување за однесувањето на Big Tech на пазарот на вештачка интелигенција. Таму…

Април 18 2024

Casa Green: енергетска револуција за одржлива иднина во Италија

Уредбата за „Case Green“, формулирана од Европската унија за подобрување на енергетската ефикасност на зградите, го заврши својот законодавен процес со…

Април 18 2024

Читајте иновации на вашиот јазик

Билтен за иновации
Не пропуштајте ги најважните вести за иновациите. Пријавете се за да ги добивате по е-пошта.

Следете нас