Статті

Фальшиве покоління

Ще 31 січня 2022 року ми опублікували в блозі Лейли перша стаття складається з генеративного алгоритму, так би мовити, алгоритму, який дотримується тієї ж технологічної архітектури, що й ChatGPT розроблений OpenAI.

Це був не перший і не буде останнім definitiva ми опублікували 4, завжди явно вказуючи, ким вони були написані.

Але експерименти пішли далі, ми згенерували десятки контенту, поки алгоритм, зосереджений на перспективах маркетингу нерухомості у 2023 році, не повідомив таку цитату:

«Президент Асоціації покупців житла Гонконгу Марк Чієн Ханг сказав South China Morning Post, що хоча вартість нещодавно завершених будинків на території падає, обсяг продажів все ще високий. «Це тому, що люди з серйозними інвестиційними планами вже вийшли на ринок з-за кордону», — сказав Чієн Ханг.

елемент заспокоєння

Ця цитата з'явилася як a елемент заспокоєння ідеально вписується в контекст статті. Але перед тим, як надіслати його онлайн, ми вирішили перевірити джерело для повноти з метою відповідного цитування. Що ж, ми з’ясували, що Марка Чіенханга не існує, так само як немає Гонконгської асоціації покупців житла. Цитований текст не з’являється в Інтернеті, і якщо хтось подумає, що можуть існувати архіви інформації, які живлять ці штучні інтелекти, які недоступні безпосередньо в Інтернеті, то це не так: цитата повністю вигадана!

Генеративний штучний інтелект має здатність «генерувати» контент у стилі та формі контенту, на якому вони навчаються, але вони не «зберігають» дані та не можуть відновити їх до початкової форми. Генеративний ШІ працює як чорні скриньки, що складаються зі штучних нейронних мереж, для яких жодна форма зворотне проектування. Іншими словами, навчальні дані стають числами, і немає прямого зв’язку між цими числами та даними, які їх створили.

На сьогоднішній день вони все ще не знаходять комерційного застосування через ризик того, що вони можуть надавати абсолютно невірну інформацію в конфіденційних контекстах.

Умови використання OpenAI для ChatGPT гласять: 

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

«Вхід і вихід слід розглядати разом як «Вміст». [...] Користувач несе відповідальність за Вміст щодо гарантії того, що він не порушує жодної статті Закону [...]»

Якщо інформація, створена ChatGPT, наражає тих, хто її використовує, на ризик публікації неправди, наклепу чи інших порушень закону, саме з цієї причини OpenAI захищає себе, відмовляючись від будь-якої відповідальності за поширення вмісту, створеного його власним штучним інтелектом.

На даний момент великі уми в навчання за допомогою машини вони ще не змогли виробити нічого кращого, ніж системи, які відповідають на кожне питання лише брешем крізь зуби. І якщо ці штучні інтелекти іноді реагують правильно, то це звичайний збіг і не більше того.

Артиколо ді Gianfranco Fedele

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Останні статті

Інноваційне втручання в доповнену реальність із програмою перегляду Apple у поліклініці Катанії

У поліклініці Катанії проведено операцію офтальмопластики за допомогою комерційного переглядача Apple Vision Pro…

3 травня 2024

Переваги розмальовок для дітей - чарівний світ для будь-якого віку

Розвиток дрібної моторики за допомогою розфарбовування готує дітей до більш складних навичок, таких як письмо. Розфарбувати…

2 травня 2024

Майбутнє тут: як індустрія судноплавства революціонізує світову економіку

Військово-морський сектор є справжньою глобальною економічною силою, яка просунулася до 150-мільярдного ринку...

1 травня 2024

Видавці та OpenAI підписують угоди щодо регулювання потоку інформації, яка обробляється штучним інтелектом

Минулого понеділка Financial Times оголосила про угоду з OpenAI. FT ліцензує свою журналістику світового рівня…

Квітень 30 2024

Читайте Innovation своєю мовою

Інноваційний бюлетень
Не пропустіть найважливіші новини про інновації. Підпишіться, щоб отримувати їх електронною поштою.

Слідуйте за нами