artikel

Mengawal selia AI: 3 pakar menerangkan sebab sukar untuk dilakukan dan penting untuk melakukannya dengan baik

Sistem AI baharu yang berkuasa boleh meningkatkan penipuan dan maklumat salah, yang membawa kepada seruan yang meluas untuk peraturan kerajaan. Tetapi berbuat demikian lebih mudah dikatakan daripada dilakukan dan boleh menyebabkan akibat yang tidak diingini

Anggaran masa membaca: 11 minuti

Dari foto palsu Donald Trump ditangkap oleh pegawai polis New York City kepada chatbot yang menggambarkan satu saintis komputer sangat hidup seperti meninggal secara tragis , keupayaan sistem generasi baharu kecerdasan buatan pemacu generatif untuk mencipta teks dan imej yang menarik tetapi rekaan mencetuskan penggera tentang penipuan steroid dan maklumat salah. Malah, pada 29 Mac 2023, sekumpulan penyelidik AI dan tokoh industri menggesa industri untuk menangguhkan latihan lanjut tentang teknologi AI terkini atau, kecuali itu, kerajaan untuk "mengenakan moratorium".

Penjana imej seperti SLAB , Pertengahan perjalanan e Resapan Stabil dan penjana kandungan seperti Bard , SembangGPT , Chinchilla e Panggilan – kini tersedia untuk berjuta-juta orang dan tidak memerlukan pengetahuan teknikal untuk digunakan.

Memandangkan landskap syarikat teknologi yang sedang berkembang yang menggunakan sistem AI dan mengujinya kepada orang ramai, penggubal dasar harus bertanya kepada diri mereka sama ada dan bagaimana untuk mengawal selia teknologi yang muncul. Perbualan meminta tiga pakar dasar teknologi untuk menjelaskan mengapa mengawal selia AI adalah satu cabaran dan mengapa ia sangat penting untuk membetulkannya.

Kelemahan manusia dan sasaran yang bergerak

S. Shyam Sundar, profesor kesan dan pengarah multimedia, Pusat AI Bertanggungjawab Sosial, Penn State

Sebab untuk mengawal selia AI bukan kerana teknologi di luar kawalan, tetapi kerana imaginasi manusia di luar perkadaran. Liputan media yang meluas telah menyemarakkan kepercayaan tidak rasional tentang keupayaan dan kesedaran AI. Kepercayaan ini berdasarkan " berat sebelah automasi ” atau pada kecenderungan untuk membiarkan kita berjaga-jaga apabila mesin melakukan tugas. Contohnya ialah pengurangan kewaspadaan di kalangan juruterbang apabila pesawat mereka terbang secara autopilot.

Banyak kajian di makmal saya telah menunjukkan bahawa apabila mesin, bukannya manusia, dikenal pasti sebagai sumber interaksi, ia mencetuskan jalan pintas mental dalam minda pengguna yang kami panggil "heuristik mesin". " . Pendek kata ini adalah kepercayaan bahawa mesin adalah tepat, objektif, tidak berat sebelah, maksum, dan sebagainya. Ia mengaburkan pertimbangan pengguna dan menyebabkan pengguna terlalu mempercayai mesin. Walau bagaimanapun, hanya mengecewakan orang tentang kemaksuman AI tidak mencukupi, kerana manusia diketahui secara tidak sedar menganggap kemahiran walaupun teknologi tidak menjaminnya.

Penyelidikan juga telah menunjukkan bahawa orang menganggap komputer sebagai makhluk sosial apabila mesin menunjukkan walau sedikit pun tanda kemanusiaan, seperti penggunaan bahasa perbualan. Dalam kes ini, orang menggunakan peraturan sosial interaksi manusia, seperti budi bahasa dan timbal balik. Oleh itu, apabila komputer kelihatan peka, orang cenderung mempercayai mereka secara membuta tuli. Peraturan diperlukan untuk memastikan produk AI layak menerima kepercayaan ini dan tidak mengeksploitasinya.

AI memberikan cabaran unik kerana, tidak seperti sistem kejuruteraan tradisional, pereka bentuk tidak dapat memastikan prestasi sistem AI. Apabila kereta tradisional dilancarkan keluar dari kilang, jurutera tahu dengan tepat bagaimana ia akan berprestasi. Tetapi dengan kereta pandu sendiri, jurutera mereka tidak boleh pasti bagaimana mereka akan berkelakuan dalam situasi baharu .

Kesukaran mengawal inovasi

Akhir-akhir ini, beribu-ribu orang di seluruh dunia telah kagum dengan model AI generatif besar seperti GPT-4 dan DALL-E 2 yang dihasilkan sebagai tindak balas kepada cadangan mereka. Tiada jurutera yang terlibat dalam membangunkan model AI ini dapat memberitahu anda dengan tepat apa yang akan dihasilkan oleh model tersebut. Untuk merumitkan keadaan, model ini berubah dan berkembang dengan interaksi yang lebih hebat.

Semua ini bermakna terdapat banyak potensi untuk berlakunya kesilapan. Oleh itu, banyak bergantung pada cara sistem AI dilaksanakan dan apakah peruntukan untuk bantuan yang disediakan apabila kepekaan atau kesejahteraan manusia dicederakan. AI lebih kepada infrastruktur, seperti lebuh raya. Anda boleh mereka bentuknya untuk membentuk tingkah laku manusia dalam kolektif, tetapi anda memerlukan mekanisme untuk menangani penyalahgunaan, seperti memandu laju dan kejadian yang tidak dapat diramalkan, seperti kemalangan.

Pembangun AI juga perlu menjadi luar biasa kreatif dalam meramalkan cara sistem mungkin berkelakuan dan cuba menjangka kemungkinan pelanggaran piawaian dan tanggungjawab sosial. Ini bermakna terdapat keperluan untuk rangka kerja kawal selia atau tadbir urus yang bergantung pada audit berkala dan penelitian hasil dan produk AI, walaupun saya percaya rangka kerja ini juga harus menyedari bahawa pereka sistem tidak boleh sentiasa bertanggungjawab atas insiden .

Menggabungkan pendekatan "lembut" dan "keras".

Cason Schmit, penolong profesor kesihatan awam, Texas A&M University

Mengawal selia kecerdasan buatan adalah rumit . Untuk menyesuaikan AI dengan baik, anda perlu terlebih dahulu defimenyelesaikan AI dan memahami risiko dan faedah yang dijangkakan AI. DefiPemfailan AI secara sah adalah penting untuk mengenal pasti perkara yang tertakluk kepada undang-undang. Tetapi teknologi AI masih berkembang, jadi ia sukar defihabiskan satu defidefinisi undang-undang yang stabil.

Memahami risiko dan faedah AI juga penting. Peraturan yang baik harus memaksimumkan faedah awam sambil meminimumkan risiko. Walau bagaimanapun, aplikasi AI masih muncul, jadi sukar untuk mengetahui atau meramalkan risiko atau faedah masa hadapan. Jenis yang tidak diketahui ini menjadikan teknologi baru muncul seperti AI sangat sukar dikawal dengan undang-undang dan peraturan tradisional.

Penggubal undang-undang adalah selalunya terlalu lambat untuk menyesuaikan diri kepada persekitaran teknologi yang pesat berubah. seseorang undang-undang baru adalah usang pada masa ia dikeluarkan atau dijadikan eksekutif. Tanpa undang-undang baru, pengawal selia mereka perlu menggunakan undang-undang lama untuk menghadapi masalah baru . Kadang-kadang ini membawa kepada halangan undang-undang untuk faedah sosial o kelemahan undang-undang untuk tingkah laku yang berbahaya .

Undang-undang Lembut

The "undang-undang lembut ” adalah alternatif kepada pendekatan perundangan tradisional “undang-undang keras” yang bertujuan untuk mencegah pelanggaran tertentu. Dalam pendekatan undang-undang lembut, organisasi swasta menubuhkan peraturan atau piawaian untuk ahli industri. Ini boleh berubah dengan lebih pantas daripada perundangan tradisional. Itu membuatkan undang-undang lembut yang menjanjikan untuk teknologi baru muncul kerana ia boleh menyesuaikan diri dengan cepat kepada aplikasi dan risiko baharu. Walau bagaimanapun, Undang-undang lembut boleh bermakna penguatkuasaan lembut .

Megan Doerr , Jennifer Wagner e io (Cason Schmit) kami mencadangkan cara ketiga: Copyleft AI dengan Penguatkuasaan Dipercayai (CAITE) . Pendekatan ini menggabungkan dua konsep yang sangat berbeza dalam harta intelek: lesen copyleft e patent troll.

Salin Lesen Kiri

Lesen copyleft membolehkan anda menggunakan, menggunakan semula atau mengubah suai kandungan dengan mudah di bawah syarat lesen, seperti perisian sumber terbuka. Model CAITE menggunakan lesen copyleft untuk menghendaki pengguna AI mematuhi garis panduan etika tertentu, seperti penilaian telus tentang kesan berat sebelah.

Dalam model kami, lesen ini juga memindahkan hak undang-undang untuk menguatkuasakan pelanggaran lesen kepada pihak ketiga yang dipercayai. Ini mewujudkan entiti penguatkuasaan yang wujud semata-mata untuk menguatkuasakan standard etika AI dan boleh dibiayai sebahagiannya dengan denda untuk kelakuan tidak beretika. Entiti ini seperti a patent troll kerana ia adalah persendirian dan bukannya kerajaan dan menyokong dirinya dengan menguatkuasakan hak harta intelek undang-undang yang dikumpulnya daripada orang lain. Dalam kes ini, bukannya mencari keuntungan, entiti menguatkuasakan garis panduan etika defimalam dalam lesen.

Model ini fleksibel dan boleh disesuaikan untuk memenuhi keperluan persekitaran AI yang sentiasa berubah. Ia juga membenarkan pilihan penguatkuasaan yang besar seperti pengawal selia kerajaan tradisional. Dengan cara ini, ia menggabungkan elemen terbaik pendekatan undang-undang keras dan lembut untuk menangani cabaran unik AI.

Empat soalan penting untuk ditanya

John Villasenor, profesor kejuruteraan elektrik, undang-undang, dasar awam dan pengurusan, Universiti California, Los Angeles

yang kemajuan luar biasa baru-baru ini dalam bahasa besar AI generatif berasaskan model mendorong permintaan untuk mencipta peraturan khusus AI baharu. Berikut adalah empat soalan penting untuk ditanya kepada diri sendiri:

1) Adakah terdapat keperluan untuk peraturan khusus baharu untuk AI? 

Banyak hasil yang berpotensi bermasalah sistem AI sudah ditangani oleh rangka kerja sedia ada. Jika algoritma AI yang digunakan oleh bank untuk menilai permohonan pinjaman membawa kepada keputusan pemberian pinjaman yang diskriminasi kaum, ia akan melanggar Akta Perumahan Adil. Jika perisian AI dalam kereta tanpa pemandu menyebabkan kemalangan, undang-undang liabiliti produk menyediakan rangka kerja untuk mengejar remedi .

2) Apakah risiko mengawal selia teknologi yang berkembang pesat berdasarkan gambaran masa? 

Contoh klasik ini ialah Akta disimpan Communications , yang digubal pada tahun 1986 untuk menangani teknologi komunikasi digital yang inovatif ketika itu seperti e-mel. Dalam menggubal SCA, Kongres memberikan perlindungan privasi yang kurang ketara untuk e-mel yang lebih lama daripada 180 hari.

Rasionalnya ialah storan terhad bermakna orang ramai sentiasa membersihkan peti masuk mereka dengan memadamkan mesej lama untuk memberi ruang kepada yang baharu. Akibatnya, mesej yang diarkibkan selama lebih daripada 180 hari dianggap kurang penting dari perspektif privasi. Tidak jelas sama ada logik ini masuk akal, dan pastinya ia tidak masuk akal pada tahun 20-an, apabila kebanyakan e-mel kami dan komunikasi digital arkib lain berusia lebih daripada enam bulan.

Sambutan biasa terhadap kebimbangan tentang mengawal selia teknologi berdasarkan satu petikan dari semasa ke semasa ialah ini: Jika undang-undang atau peraturan menjadi usang, kemas kininya. Ia lebih mudah diucapkan daripada dilakukan. Kebanyakan orang bersetuju bahawa SCA telah usang beberapa dekad yang lalu. Tetapi kerana Kongres tidak dapat bersetuju secara khusus tentang cara menyemak peruntukan 180 hari, ia masih dalam buku lebih daripada satu pertiga abad selepas ia digubal.

3) Apakah kemungkinan akibat yang tidak diingini? 

Il Benarkan Negeri dan Mangsa Melawan Akta Pemerdagangan Seks Dalam Talian 2017 ia adalah undang-undang yang diluluskan pada 2018 yang disemaknya Seksyen 230 Akta Kesopanan Komunikasi dengan tujuan memerangi pemerdagangan seks. Walaupun terdapat sedikit bukti bahawa dia telah mengurangkan pemerdagangan seks, dia mempunyai a kesan yang sangat bermasalah pada kumpulan orang yang berbeza: pekerja seks yang bergantung pada tapak web yang diambil di luar talian oleh FOSTA-SESTA untuk bertukar maklumat tentang pelanggan berbahaya. Contoh ini menunjukkan kepentingan untuk melihat secara meluas kesan potensi peraturan yang dicadangkan.

4) Apakah implikasi ekonomi dan geopolitik? 

Jika pengawal selia di AS mengambil tindakan untuk memperlahankan kemajuan AI secara sengaja, ia hanya akan mendorong pelaburan dan inovasi - dan menghasilkan penciptaan pekerjaan - di tempat lain. Walaupun AI yang baru muncul menimbulkan banyak kebimbangan, ia juga berjanji untuk membawa manfaat besar dalam bidang seperti arahan , ubat , pengeluaran , keselamatan pengangkutan , pertanian , meteorologiche previsioni , akses kepada perkhidmatan guaman dan banyak lagi.

Saya percaya bahawa peraturan AI yang digubal dengan mengingati empat soalan di atas akan lebih berkemungkinan berjaya menangani potensi bahaya AI sambil memastikan akses kepada manfaatnya.

Artikel ini dipetik secara bebas daripada The Conversation, sebuah organisasi berita bebas bukan untung yang khusus untuk berkongsi pengetahuan pakar akademik.

Bacaan Berkaitan

BlogInnovazione.it

Surat berita inovasi
Jangan terlepas berita paling penting tentang inovasi. Daftar untuk menerimanya melalui e-mel.

Artikel baru-baru ini

Masa Depan Di Sini: Bagaimana Industri Perkapalan Merevolusikan Ekonomi Global

Sektor tentera laut adalah kuasa ekonomi global yang sebenar, yang telah menavigasi ke arah pasaran 150 bilion...

1 Mei 2024

Penerbit dan OpenAI menandatangani perjanjian untuk mengawal selia aliran maklumat yang diproses oleh Kepintaran Buatan

Isnin lalu, Financial Times mengumumkan perjanjian dengan OpenAI. FT melesenkan kewartawanannya bertaraf dunia…

30 April 2024

Pembayaran Dalam Talian: Begini Cara Perkhidmatan Penstriman Membuat Anda Membayar Selama-lamanya

Berjuta-juta orang membayar untuk perkhidmatan penstriman, membayar yuran langganan bulanan. Adalah menjadi pendapat umum bahawa anda…

29 April 2024

Veeam menampilkan sokongan paling komprehensif untuk perisian tebusan, daripada perlindungan kepada tindak balas dan pemulihan

Coveware oleh Veeam akan terus menyediakan perkhidmatan tindak balas insiden pemerasan siber. Coveware akan menawarkan keupayaan forensik dan pemulihan…

23 April 2024