Етика штучного інтелекту — Вікіпедія

Е́тика шту́чного інтеле́кту є частиною етики технологій[en], що стосується роботів та інших штучно інтелектуальних істот. Вона зазвичай поділяється на робоетику, яка вирішує питання моральної поведінки людей під час проєктування, конструювання, використання та лікування штучно розумних істот, і машинну етику, яка зачіпає проблеми моральної поведінки штучних моральних агентів (ІМА).

Етика роботів[ред. | ред. код]

Докладніше: Робоетика

Термін «етика роботів» (або «робоетика») стосується моральних аспектів того, як люди проєктують, конструюють, використовують і поводяться з роботами та іншими штучно інтелектуальними істотами[1]. Вона розглядає, як штучно розумні істоти можуть бути використані на шкоду або в інтересах людей.

Права роботів[ред. | ред. код]

«Права роботів» — це концепція, згідно з якою люди повинні мати моральні зобов'язання перед своїми машинами, подібні до прав людини або тварин[2]. Є пропозиція, що права роботів, такі як право на існування і виконання власної місії, можна пов'язати з обов'язком робота служити людині, за аналогією з пов'язанням прав людини з обов'язками людини перед суспільством[3]. Вони можуть включати право на життя і свободу, свободу думки і висловлювань, а також рівність перед законом[4]. Це питання розглядав Інститут майбутнього[5] і Міністерство торгівлі та промисловості Великої Британії[6].

Експерти не мають спільної думки, чи потрібні конкретні і докладні закони вже найближчим часом, чи тільки у віддаленому майбутньому[6]. Гленн Макгі повідомляє, що до 2020 року може з'явитися досить гуманоїдний робот[7]. Рей Курцвейл вважає, що це відбудеться до 2029 року[8]. У 2007 році інша група вчених припускала, що пройде, принаймні, 50 років, перш ніж зможе існувати досить просунута система[9].

Правила конкурсу премії Льобнера 2003 року передбачали можливість того, що роботи можуть мати власні права.

У жовтні 2017 року андроїд Софія отримала «почесне» громадянство в Саудівській Аравії, хоча деякі спостерігачі визнали це швидше рекламним ходом, аніж осмисленим юридичним визнанням[10]. Деякі розглядали цей жест як відкрите приниження прав людини і верховенства закону[11].

Філософія сентитизму[en] надає право на моральне ставлення всім чутливим істотам, передусім людям і більшості тварин. Якщо штучні або інопланетні інтелектуальні істоти демонструють докази своєї чуттєвості, ця філософія вважає, що до них слід проявити співчуття і надати права.

Джоанна Брайсон стверджувала, що створення ШІ, який вимагає прав, можна уникнути, і саме по собі неетично, що це буде тягарем і для агентів ШІ і для людського суспільства[12].

Загроза людській гідності[ред. | ред. код]

Джозеф Вейценбаум стверджував у 1976 році, що технологія штучного інтелекту не повинна використовуватися для заміни людей на посадах, які вимагають поваги і турботи, таких як:

Вайзенбаум пояснює, що від людей на цих посадах ми очікуємо справжнього почуття емпатії. Якщо машини їх замінять, ми опинимося відчуженими, знеціненими і розчарованими. Штучний інтелект, якщо його використовувати таким чином, є загрозою для людської гідності. Вайзенбаум стверджує, що факт того, що ми розглядаємо можливість машинам займати ці позиції, говорить про те, що ми пережили «атрофію людського духу, яка виникає через те, що ми думаємо про себе як про комп'ютери»[13].

Памела Маккордак заперечує, кажучи про жінок і меншини, «я воліла б ризикнути з неупередженим комп'ютером», вказуючи на умови, за яких ми б вважали за краще мати автоматичних суддів і поліцію, у яких взагалі немає особистих інтересів Проте, Каплан і Хенлейн підкреслюють, що системи штучного інтелекту інтелектуальні точно згідно з даними, які використовувалися для їх навчання, оскільки за своєю суттю вони являють собою не що інше, як машини для наближення за допомогою кривих: використання штучного інтелекту для підтримки судового рішення може стати досить проблематичним, якщо минулі рішення демонструють упередженість до певних груп, оскільки ці упередження формалізуються та закріплюються, що робить виявлення і боротьбу з ними ще важчою[14]. Засновник ШІ Джон Маккарті заперечує проти моралізаторського тону критики Вейзенбаума. Він пише: «Коли моралізаторство несамовите і розпливчасте, воно заохочує авторитарне насильство».

Білл Гіббард[15] зазначав, що «людська гідність вимагає, щоб ми прагнули усунути наше незнання природи буття, і для цього необхідний ШІ».

Прозорість, відповідальність і відкритий сирцевий код[ред. | ред. код]

Білл Гіббард[en] стверджує, що, оскільки ШІ дуже вплине на людство, зусилля розробників ШІ етично мають бути прозорими[16]. Бен Гертцель і Девід Гарт створили OpenCog як фреймворк з відкритим сирцевим кодом для розробки ШІ[17]. OpenAI — це некомерційна дослідницька компанія зі штучного інтелекту, яку створили Ілон Маск, Сем Альтман та інші для розробки корисного для людства програмного забезпечення ШІ з відкритим сирцевим кодом[18]. Існує багато інших розробок ШІ з відкритим сирцевим кодом.

На жаль, відкритість коду не робить його зрозумілим, тобто ШІ, який ним закодовано, не є прозорим. IEEE намагається стандартизувати прозорість ШІ[19]. При цьому IEEE виділяє для різних користувачів декілька ступенів прозорості. Крім того, є побоювання, що надання повного потенціалу сучасного ШІ деяким організаціям може завдати суспільству більше шкоди, ніж користі. Наприклад, Microsoft висловила стурбованість з приводу надання загального доступу до свого програмного забезпечення для розпізнавання облич, навіть з числа тих, хто може за нього заплатити. Microsoft опублікувала незвичайний блог на цю тему з проханням про урядове регулювання з метою визначення правильності цих дій[20].

Не тільки компанії, але й багато інших дослідників і цивільні адвокати рекомендують державне регулювання для забезпечення прозорості і, як наслідок, відповідальності людини. Оновлену збірку (список) етики ШІ підтримує організацією AlgorithmWatch. [Архівовано 30 листопада 2019 у Wayback Machine.] Ця стратегія спірна, так як дехто побоюється, що вона призведе до уповільнення темпів інновацій. Інші стверджують, що регулювання призводить до системної стабільності, що сприяє підтримці інновацій у довгостроковій перспективі[21]. ОЕСР, ООН, ЄС і багато країн працюють над стратегіями регулювання ШІ і шукають відповідні правові рамки[22][23][24]. 26 червня Група високорівневих експертів Європейської комісії зі штучного інтелекту (AI HLEG) опублікувала свої «Рекомендації щодо політики та інвестицій в галузі надійного штучного інтелекту». Це другий документ AI HLEG, який вийшов слідом за публікацією в квітні 2019 «Керівництва з етики для надійного ШІ». Нові рекомендації стосуються чотирьох основних областей: люди і суспільство в цілому, приватний сектор, державний сектор, а також дослідження і наука. Рекомендації HLEG відбивають розуміння як можливостей для технологій штучного інтелекту стимулювати економічне зростання, процвітання та інновації, так і потенційних ризиків. Європейський Союз має амбіції очолити розробку політик, що регулюють ШІ у всьому світі. Однак, якщо Європа не прискорить розгортання і впровадження і не створить виробничі, дослідницькі та дослідно-конструкторські потужності, її можливості для цього будуть обмежені[25].

Упередженість у системах ШІ[ред. | ред. код]

ШІ стає невід'ємною частиною систем розпізнавання обличчя і голосу. Деякі з цих систем мають реальний вплив на бізнес і людей. Ці системи вразливі щодо упереджень і помилок, внесених творцями-людьми. Крім того, дані, які використовуються для навчання самих цих систем ШІ, можуть мати спотворення[26][27][28][29]. Наприклад, алгоритми розпізнавання облич, розроблені Microsoft, IBM і Face++, виявилися необ'єктивними, коли справа дійшла до визначення статі людей[30]. Ці системи штучного інтелекту були в змозі визначати стать білих чоловіків точніше, ніж стать темношкірих чоловіків. Ще одним прикладом необ'єктивності ШІ стало припинення з боку Amazon's.com Inc використання ШІ для найму співробітників. Алгоритм надавав перевагу кандидатам-чоловікам. Це сталося тому, що система Amazon була навчена з використанням даних, зібраних за 10-річний період, які надходили переважно основному від кандидатів-чоловіків[31].

Упередженість може потрапити в алгоритми різними шляхами. В дуже впливовій гілці ШІ, відомій як «обробка природної мови», можуть виникнути проблеми з «текстового зводу» — вхідного матеріалу, який використовує алгоритм, щоб дізнатися про взаємозв'язки між різними словами[32].

Проблему упередженості почали досліджувати та вирішувати великі компанії, такі як IBM, Google та інші[33][34][35].

Проблема упередженості в машинному навчанні, ймовірно, стане ще серйознішою, оскільки технологія поширюється на такі критичні галузі, як медицина, юриспруденція, і оскільки завдання її розгортання доручають все більшому числу людей, які не мають глибоких технічних знань. Деякі експерти попереджають, що алгоритмічна необ'єктивність вже поширена в багатьох галузях, і що майже ніхто не робить зусиль для її виявлення або виправлення[36].

Відповідальність за частково або повністю безпілотні автомобілі[ред. | ред. код]

Є всі підстави вважати, що в майбутньому неминуче широке використання частково або повністю безпілотних автомобілів. Але повністю автономні технології ставлять перед нами нові проблеми і виклики[37][38]. Останнім часом піднялися дебати з приводу юридичної відповідальності сторін при попаданні безпілотних автомобілів в аварії[39][40]. В одному зі звітів[41] автомобіль без водія збив пішохода і постала проблема, хто винен в аварії. Незважаючи на те, що водій під час аварії перебував в автомобілі, керування повністю здійснював комп'ютер. Необхідно вирішити такого роду питання перш, ніж безпілотні автомобілі набудуть масового поширення[42][43][44].

Озброєний штучний інтелект[ред. | ред. код]

Деякі експерти і вчені ставлять під сумнів використання роботів у бойових діях, особливо коли таким роботам надається певний ступінь автономності[45][46]. ВМС США профінансували доповідь, у якій зазначається, що, оскільки бойові роботи стають все складнішими, слід приділяти більше уваги наслідкам їх здібності приймати самостійні рішення[47]. Є думка одного дослідника, який стверджує, що автономні роботи можуть бути гуманнішими, оскільки можуть приймати рішення ефективніше[джерело?].

Протягом останнього десятиліття проводилися інтенсивні дослідження в галузі самонавчання автономності з призначуваною моральною відповідальністю. «Результати можна використати при розробці майбутніх військових роботів для контролю за небажаними тенденціями покладання відповідальності на роботів»[48]. З точки зору консеквенціалізму є ймовірність, що роботи будуть розвивати здібності приймати свої власні логічні рішення про те, кого вбивати, і тому необхідні моральні обмеження, які ШІ не зможе обійти[49].

Нещодавно були протестні голоси проти розробки ШІ-зброї, яка включала б ідеї захоплення людства роботом. ШІ-зброя несе небезпеку іншого роду, на відміну від зброї, контрольованої людиною. Багато урядів уже почали фінансувати програми з розробки ШІ-озброєння. ВМС США нещодавно оголосили про плани розробки ударного безпілотника, паралельно з аналогічними заявами Росії та Південної Кореї. У зв'язку з тим, що ШІ-зброя стає більш небезпечним, ніж керована людиною зброю, Стівен Гокінг і Макс Тегмарк підписали петицію «Майбутнє життя»[50] про заборону ШІ-зброї. У повідомленні, опублікованому Гокінгом і Тегмарком, йдеться, що ШІ-зброя являє собою безпосередню небезпеку і що необхідно вжити заходів, щоб уникнути катастрофічних наслідків у найближчому майбутньому[51].

«Якщо яка-небудь велика військова сила просуває розробку ШІ-зброї, практично неминуча глобальна гонка озброєнь, і в підсумку автономна зброя стане автоматом Калашникова завтрашнього дня», — йдеться в петиції, яку підписали противники збройного штучного інтелекту: засновник Skype Яан Таллінн і професор лінгвістики Массачусетського технологічного інституту Ноам Чомскі[52].

Фізик і астроном сер Мартін Ріс попереджає про такі катастрофічних прикладах, як «дурні роботи, які стають ізгоями, або мережа, яка розвиває власний розум». Г'ю Прайс, колега Ріса з Кембриджа, озвучив подібне попередження про те, що люди можуть не вижити, якщо інтелект «вислизне від біологічних обмежень». У Кембриджському університеті створили Центр вивчення екзистенційного ризику[en] в надії уникнути цієї загрози людському існуванню[51]

Що стосується можливості використання «розумніших від людини» систем у військовій справі, проєкт «Відкрита філантропія[en]» пише, що ці сценарії «здаються потенційно настільки ж важливими, як і ризики, пов'язані зі втратою контролю», але дослідні організації, які займаються довгостроковим соціальним впливом ШІ, недостатньо вивчили цю проблему: «цей клас сценаріїв не був у центрі уваги організацій, що займаються цими питаннями, таких як Науково-дослідний інститут машинного інтелекту (MIRI) та Інститут майбутнього людства (FHI) і тому менше обговорювалися»[53].

Машинна етика[ред. | ред. код]

Машинна етика (або машинна мораль) — це галузь досліджень, пов'язаних з розробкою штучних моральних агентів[en] (ШМА), роботів або штучно інтелектуальних комп'ютерів, які поводяться морально або ніби морально[54][55][56][57]. Щоб врахувати природу цих агентів, запропоновано розглянути деякі філософські ідеї, такі як стандартні характеристики суб'єктності, раціональних агентів, моральних агентів[en] і штучної суб'єктності, які пов'язані з концепцією ШМА[58].

Айзек Азімов розглянув цю проблему в 1950-х роках у своїй серії оповідань «Я, робот». За наполяганням редактора Джона Кемпбелла молодшого для керування штучно інтелектуальними системами він запропонував три закони робототехніки. Він доклав багато зусиль для перевірки меж трьох його законів, щоб побачити, де вони можуть зламатися або спричинити парадоксальну чи непередбачувану поведінку. Його робота передбачає, що жоден із встановлених законів не може достатньою мірою передбачати всі можливі обставини. Останнім часом вчені і багато урядів поставили під сумнів ідею про притягнення до відповідальності ШІ[59]. Комісія, скликана у Великій Британії в 2010 році, переглянула закони Азімова, щоб уточнити, що ШІ належить до відповідальності або його виробників, або його власника/оператора[60].

У 2009 році, під час експерименту в Лабораторії інтелектуальних систем у Політехнічній школі Лозанни у Швейцарії, роботи, запрограмовані на співпрацю один з одним (у пошуку корисних ресурсів та уникнення отруйних), врешті решт навчилися брехати один одному, намагаючись накопичити корисні ресурси[61]. Однією з проблем у цьому випадку могло бути те, що цілі були «скінченними» (тоді як основні людські мотиви зазвичай перебувають у нескінченному навчанні)[62].

Деякі експерти і вчені ставлять під сумнів використання роботів для бойових дій, особливо коли таким роботам надається певна автономність[45]. ВМС США профінансували доповідь, у якій зазначається, що в міру ускладнення військових роботів слід приділяти більше уваги наслідкам їх здатності приймати самостійні рішення[47].

Вернор Вінжі припустив, що може настати момент, коли деякі комп'ютери стануть розумнішими за людей, назвавши це явище сингулярністю[63]. Він припускає, що це може бути частково або навіть дуже небезпечно для людини[64]. Науково-дослідний інститут машинного інтелекту висловив припущення про необхідність створення «дружнього ШІ», маючи на увазі, що прогрес, який вже відбувається з ШІ, маєтакож включати зусилля, спрямовані на створення більш дружнього і гуманного ШІ.

У 2009 році вчені та технічні експерти взяли участь у конференції, організованій Асоціацією з розвитку штучного інтелекту, щоб обговорити потенційну роль роботів і комп'ютерів і вплив гіпотетичної можливості того, що вони можуть стати самодостатніми і здатними приймати власні рішення. Вони обговорили можливість і ступінь, з яким комп'ютери і роботи могли б набути будь-якого рівня автономії, і якою мірою вони могли б використовувати такі можливості, щоб становити певну загрозу чи небезпеку. Вони відзначили, що деякі машини набули різних форм напівавтономності, зокрема можливості самостійно знаходити джерела енергії і самостійно вибирати цілі для атаки зброєю. Вони також відзначили, що деякі комп'ютерні віруси можуть уникати знищення і досягли «інтелекту тарганів». Вони відзначили, що самосвідомість, як зображено в науковій фантастиці, малоймовірна, але є інші потенційні небезпеки і «підводні камені»[63].

Проте, існує одна технологія, яка дійсно може призвести до роботів з моральними здібностями. У статті про набуття моральних цінностей роботами Наєф Аль-Родхан згадує випадок нейроморфних чіпів, які прагнуть обробляти інформацію подібно до людей, нелінійно і з мільйонами взаємопов'язаних штучних нейронів[65]. Роботи зі вбудованою нейроморфною технологією можуть вивчати і розвивати знання унікальним чином. Це неминуче піднімає питання про довкілля, в якому такі роботи пізнають світ і мораль яку вони успадкують, або якщо вони врешті решт також розвинуть людські «слабкості»: егоїзм, ставлення до виживання, коливання тощо.

У книзі «Моральні машини: навчання роботів правильному через неправильне»[66] Венделл Воллах і Колін Аллен роблять висновок, що спроби навчити роботів чинити правильно через неправильно можуть просунути розуміння людської етики, мотивуючи людей на усунення прогалин сучасної нормативної теорії і надаючи платформу для експериментального дослідження. Для прикладу він задає нормативним фахівцям з етики спірне питання про те, які конкретні алгоритми машинного навчання потрібно використовувати. Нік Бостром і Еліезер Юдковський наводять аргументи на користь дерев рішень (таких як ID3) проти нейронних мереж і генетичних алгоритмів, тому що дерева рішень підпорядковуються сучасним соціальним нормам прозорості та передбачуваності (наприклад, stare decisis)[67], тоді як Кріс Сантос-Ланг заперечує, що норми будь-якого віку можна змінювати і що природна нездатність повністю задовольнити ці конкретні норми має важливе значення для того, щоб зробити людей менш уразливими для злочинних «хакерів»[62]

Згідно зі звітом Центру управління ШІ в Оксфордському університеті за 2019 рік, 82 % американців вважають, що необхідно ретельно керувати роботами і ШІ. Обговорювані проблеми варіювалися від того, як ШІ використовується для стеження і поширення фальшивого вмісту в Інтернеті (відомого як глибокі фейки, які включають підроблені відео і аудіо, згенеровані за допомогою ШІ), до кібератак, посягань на конфіденційність даних, упередженості під час найму на роботу, безпілотних транспортних засобів і дронів, які не вимагають керування людиною[68].

Несподівані наслідки[ред. | ред. код]

Багато дослідників стверджують, що внаслідок «інтелектуального вибуху», що стався десь у XXI столітті, самовдосконалюваний ШІ може стати настільки могутнішим від людей, що ми не зможемо перешкодити йому досягти своїх цілей[69]. У своїй статті «Етичні проблеми просунутого штучного інтелекту» філософ Нік Бостром стверджує, що штучний інтелект здатний викликати вимирання людини. Він стверджує, що загальний надрозум здатний на самостійну ініціативу і на створення власних планів, і тому його доцільно розглядати як автономного агента. Оскільки штучний інтелект не зобов'язаний розділяти людські мотивації, розробники суперінтелекту мали б закласти його первісну мотивацію. Теоретично, надінтелектуальний ШІ зможе привести до практично будь-якого можливого результату і припинити будь-яку спробу перешкодити досягненню головної мети, що може спричинити багато неконтрольованих ненавмисних наслідків. Це може вбити всіх інших агентів, переконати їх змінити свою поведінку або заблокувати їхні спроби втручання[70].

Однак замість того, щоб перевершити людську расу і вести її до руйнації, Бостром також стверджує, що супер-інтелект може допомогти нам вирішити багато складних проблеми, таких як хвороби, бідність, руйнування навколишнього середовища, і може допомогти нам «поліпшити» себе[71].

Складність систем людських цінностей веде до високої складності створення зручних для людини мотивацій ШІ[69][70]. Поки моральна філософія не дає нам бездоганної етичної теорії, функція корисності ШІ може допускати безліч потенційно шкідливих сценаріїв, які відповідають даній етичній структурі, але не відповідають здоровому глузду". За словами Елізера Юдковського, у нас мало підстав вважати, що штучно створений розум буде володіти такою адаптацією[72].

Білл Гіббард[15] запропонував такий дизайн штучного інтелекту, який уникає деяких типів ненавмисної поведінки, зокрема самообман, ненавмисні інструментальні дії та пошкодження генератора винагород.

Організації[ред. | ред. код]

Amazon, Google, Facebook, IBM і Microsoft створили некомерційне партнерство для розробки передового досвіду в галузі технологій штучного інтелекту, поліпшення розуміння громадськістю та забезпечення платформи ШІ. Вони заявили: «Це партнерство щодо ШІ буде проводити дослідження, організовувати дискусії, забезпечувати інтелектуальне лідерство, консультуватися з відповідними третіми сторонами, відповідати на питання громадськості та засобів масової інформації, а також створювати навчальні матеріали, що сприяють розумінню технологій ШІ, включно з машинним сприйняттям, навчанням і автоматичними міркуваннями»[73]. Apple приєдналася до іншим технологічних компаніям як один із засновників Партнерства зі штучного інтелекту в січні 2017 року. Корпоративні учасники будуть робити фінансовий і дослідницький внесок у роботу групи, взаємодіючи з науковою спільнотою, щоб залучити вчених до ради директорів[74].

IEEE розробив Глобальну ініціативу з етики автономних та інтелектуальних систем [Архівовано 6 жовтня 2019 у Wayback Machine.], яка розробляє і переглядає за допомогою громадської думки методичні рекомендації.

Традиційно, громадськість використовує уряд для контролю відповідності етиці рамок законодавства і правопорядку. Нині національні уряди, а також міжнародні урядові та неурядові організації докладають багато зусиль для забезпечення етичного застосування ШІ.

В художній літературі[ред. | ред. код]

Фільм «Тринадцятий поверх» показує майбутнє, в якому на гральних консолях створюються для розваги симульовані світи з розумними мешканцями. Фільм «Матриця» показує майбутнє, де домінівним видом на планеті Земля є розумні машини, а людство зазнає граничної дискримінації. В оповіданні Грега Ігена «Занурення Планка[en]» зображено майбутнє, в якому людство перетворилося на програмне забезпечення, яке можна дублювати й оптимізувати, а програмне забезпечення, відповідно, поділяють на чутливе і не чутливе. Цю ж ідею знаходимо в Голограмі швидкої медичної допомоги Starship Voyager, яка є явно розумною копією зменшеної підмножини свідомості її творця, доктора Циммермана, який з найкращими намірами створив систему надання екстреної медичної допомоги. У фільмах «Двохсотлітня людина» і «Штучний розум» розглядаються можливості розумних роботів, які можуть любити. «Я, Робот» показав деякі аспекти трьох законів робототехніки Азімова. Всі вони намагаються передбачити, можливо, неетичні наслідки створення розумних комп'ютерів.

Етика штучного інтелекту є однією з основних тем у серії ігор BioWare «Mass Effect». Вона розглядає сценарій, в якому цивілізація випадково створила ШІ завдяки швидкому збільшення обчислювальної потужності та використанню глобальної нейронної мережі. Ця подія викликала етичний розкол між тими, хто вважав, що розумних Гетів можна наділити органічними правами, і тими, хто продовжував розглядати їх як одноразовий механізм і боровся за їх знищення. Крім початкового конфлікту ще однією постійною темою всієї історії є складність відносин між машинами і їхніми творцями.

Див. також[ред. | ред. код]

Дослідники
Організації

Примітки[ред. | ред. код]

  1. Veruggio, Gianmarco. The Roboethics Roadmap. — Scuola di Robotica, 2007. — 11 April.
  2. Woody[en]. Posthuman Rights: Dimensions of Transhuman Worlds // Teknokultura. — 2015. — Т. 12, № 2 (11 April). — DOI:10.5209/rev_TK.2015.v12.n2.49072.
  3. Yurii Sheliazhenko. Artificial Personal Autonomy and Concept of Robot Rights. — European journal of law and political sciences, 2017. — 11 April. Архівовано з джерела 14 липня 2018. Процитовано 2017-05-10.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. Robots could demand legal rights. BBC News. 21 грудня 2006. Архів оригіналу за 15 жовтня 2019. Процитовано 3 січня 2010.
  6. а б Henderson, Mark (24 квітня 2007). Human rights for robots? We're getting carried away. The Times Online. The Times of London. Архів оригіналу за 17 травня 2008. Процитовано 2 травня 2010.
  7. McGee, Glenn. A Robot Code of Ethics. The Scientist. Архів оригіналу за 6 вересня 2020. Процитовано 13 грудня 2020.
  8. Ray Kurzweil. The Singularity is Near. — Penguin Books, 2005. — ISBN 978-0-670-03384-3.
  9. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  10. Saudi Arabia bestows citizenship on a robot named Sophia. Архів оригіналу за 27 жовтня 2017. Процитовано 13 грудня 2020.
  11. Vincent, James (30 жовтня 2017). Pretending to give a robot citizenship helps no one. The Verge. Архів оригіналу за 3 серпня 2019. Процитовано 13 грудня 2020.
  12. Close engagements with artificial companions : key social, psychological, ethical and design issues. — Amsterdam : John Benjamins Pub. Co, 2010. — ISBN 978-9027249944.
  13. Joseph Weizenbaum, quoted in (McCorduck, 2004, с. 356, 374–376)
  14. Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1). Архів оригіналу за 21 листопада 2018. Процитовано 10 жовтня 2019.
  15. а б Hibbard, Bill (2014): «Ethical Artificial Intelligence».
  16. Open Source AI. [Архівовано 4 березня 2016 у Wayback Machine.] Bill Hibbard. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  17. OpenCog: A Software Framework for Integrative Artificial General Intelligence. [Архівовано 4 березня 2016 у Wayback Machine.] David Hart and Ben Goertzel. 2008 proceedings of the First Conference on Artificial General Intelligence, eds. Pei Wang, Ben Goertzel and Stan Franklin.
  18. Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free [Архівовано 27 квітня 2016 у Wayback Machine.] Cade Metz, Wired 27 April 2016.
  19. P7001 - Transparency of Autonomous Systems. P7001 - Transparency of Autonomous Systems. IEEE. Архів оригіналу за 10 січня 2019. Процитовано 10 січня 2019..
  20. Thurm, Scott (13 липня 2018). MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION. Wired. Архів оригіналу за 9 травня 2019. Процитовано 13 грудня 2020.
  21. Bastin, Roland (2017-06). The General Data Protection Regulation Cross-industry innovation (PDF). Inside magazine. Deloitte. Архів оригіналу (PDF) за 10 січня 2019. Процитовано 13 грудня 2020.
  22. UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges'. UN News (англ.). 7 червня 2017. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  23. Artificial intelligence - Organisation for Economic Co-operation and Development. www.oecd.org (англ.). Архів оригіналу за 22 липня 2019. Процитовано 26 липня 2019.
  24. Anonymous (14 червня 2018). The European AI Alliance. Digital Single Market - European Commission (англ.). Архів оригіналу за 1 серпня 2019. Процитовано 26 липня 2019.
  25. EU Tech Policy Brief: July 2019 Recap. Center for Democracy & Technology (англ.). Архів оригіналу за 9 серпня 2019. Процитовано 9 серпня 2019.
  26. Society, DeepMind Ethics & (14 березня 2018). The case for fairer algorithms - DeepMind Ethics & Society. Medium (англ.). Архів оригіналу за 22 липня 2019. Процитовано 22 липня 2019.
  27. 5 unexpected sources of bias in artificial intelligence. TechCrunch (англ.). Архів оригіналу за 18 березня 2021. Процитовано 22 липня 2019.
  28. Knight, Will. Google’s AI chief says forget Elon Musk’s killer robots, and worry about bias in AI systems instead. MIT Technology Review (англ.). Архів оригіналу за 4 липня 2019. Процитовано 22 липня 2019.
  29. Villasenor, John (3 січня 2019). Artificial intelligence and bias: Four key challenges. Brookings (англ.). Архів оригіналу за 22 липня 2019. Процитовано 22 липня 2019.
  30. Lohr, Steve (9 лютого 2018). Facial Recognition Is Accurate, if You're a White Guy. The New York Times (англ.). Архів оригіналу за 9 січня 2019. Процитовано 29 травня 2019.
  31. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters (англ.). 10 жовтня 2018. Архів оригіналу за 27 травня 2019. Процитовано 29 травня 2019.
  32. Eliminating bias in AI. techxplore.com (англ.). Архів оригіналу за 25 липня 2019. Процитовано 26 липня 2019.
  33. Olson, Parmy. Google's DeepMind Has An Idea For Stopping Biased AI. Forbes (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  34. Machine Learning Fairness | ML Fairness. Google Developers (англ.). Архів оригіналу за 10 серпня 2019. Процитовано 26 липня 2019.
  35. AI and bias - IBM Research - US. www.research.ibm.com (англ.). REPLACE. Архів оригіналу за 17 липня 2019. Процитовано 26 липня 2019.
  36. Knight, Will. Google’s AI chief says forget Elon Musk’s killer robots, and worry about bias in AI systems instead. MIT Technology Review (англ.). Архів оригіналу за 4 липня 2019. Процитовано 26 липня 2019.
  37. Davies, Alex (29 лютого 2016). Google's Self-Driving Car Caused Its First Crash. Wired. Архів оригіналу за 7 липня 2019. Процитовано 26 липня 2019.
  38. Levin, Sam (19 березня 2018). Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian. The Guardian (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  39. Who is responsible when a self-driving car has an accident?. Futurism (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  40. Radio, Business. Autonomous Car Crashes: Who - or What - Is to Blame?. Knowledge@Wharton (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  41. Delbridge, Emily. Driverless Cars Gone Wild. The Balance (англ.). Архів оригіналу за 29 травня 2019. Процитовано 29 травня 2019.
  42. Regulations for driverless cars. GOV.UK (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  43. Automated Driving: Legislative and Regulatory Action - CyberWiki. cyberlaw.stanford.edu. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  44. Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation. www.ncsl.org. Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  45. а б Call for debate on killer robots [Архівовано 7 серпня 2009 у Wayback Machine.], By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  46. Robot Three-Way Portends Autonomous Future [Архівовано 7 листопада 2012 у Wayback Machine.], By David Axe wired.com, August 13, 2009.
  47. а б Navy report warns of robot uprising, suggests a strong moral compass [Архівовано 4 червня 2011 у Wayback Machine.], by Joseph L. Flatley engadget.com, Feb 18th 2009.
  48. On the moral responsibility of military robots — ProQuest. Архів оригіналу за 5 липня 2019. Процитовано 13 грудня 2020.
  49. Mitra, Ambarish. We can train AI to identify good and evil, and then use it to teach us morality. Quartz (англ.). Архів оригіналу за 26 липня 2019. Процитовано 26 липня 2019.
  50. AI Principles. Future of Life Institute (англ.). Архів оригіналу за 11 грудня 2017. Процитовано 26 липня 2019.
  51. а б Zach Musgrave and Bryan W. Roberts (14 серпня 2015). Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic. The Atlantic. Архів оригіналу за 11 квітня 2017. Процитовано 13 грудня 2020.
  52. Cat Zakrzewski (27 липня 2015). Musk, Hawking Warn of Artificial Intelligence Weapons. WSJ. Архів оригіналу за 28 липня 2015. Процитовано 13 грудня 2020.
  53. GiveWell. Potential risks from advanced artificial intelligence (Звіт). Архів оригіналу за 12 жовтня 2015. Процитовано 13 грудня 2020.
  54. Anderson. Machine Ethics. Архів оригіналу за 28 вересня 2011. Процитовано 27 червня 2011.
  55. Machine Ethics / Anderson, Michael; Anderson, Susan Leigh. — Cambridge University Press, 2011. — ISBN 978-0-521-11235-2.
  56. Special Issue on Machine Ethics // IEEE Intelligent Systems[en] : journal. — Vol. 21, no. 4. — P. 10—63. — ISSN 1541-1672. — DOI:10.1109/mis.2006.70. Архівовано з джерела 26 листопада 2011.
  57. Michael; Anderson. Machine Ethics: Creating an Ethical Intelligent Agent // AI Magazine : journal. — Vol. 28, no. 4. — P. 15—26. — ISSN 0738-4602. Архівовано з джерела 18 вересня 2020. Процитовано 13 грудня 2020.
  58. Robert James M.; Boyles. Philosophical Signposts for Artificial Moral Agent Frameworks // Suri : journal. — 2017. — Vol. 6, no. 2 (10). — P. 92—109. Архівовано з джерела 7 березня 2022. Процитовано 13 грудня 2020.
  59. Joanna; Bryson. Of, for, and by the people: the legal lacuna of synthetic persons // Artificial Intelligence and Law : journal. — 2017. — Vol. 25, no. 3 (9). — P. 273—291. — DOI:10.1007/s10506-017-9214-9.
  60. Principles of robotics. UK's EPSRC. 2010-09. Архів оригіналу за 1 квітня 2018. Процитовано 10 січня 2019.
  61. Evolving Robots Learn To Lie To Each Other [Архівовано 28 серпня 2009 у Wayback Machine.], Popular Science, August 18, 2009
  62. а б Santos-Lang, Chris. Ethics for Artificial Intelligences. Архів оригіналу за 25 грудня 2014. Процитовано 13 грудня 2020.
  63. а б Scientists Worry Machines May Outsmart Man [Архівовано 1 липня 2017 у Wayback Machine.] By JOHN MARKOFF, NY Times, July 26, 2009.
  64. The Coming Technological Singularity: How to Survive in the Post-Human Era [Архівовано 1 січня 2007 у Wayback Machine.], by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  65. Al-Rodhan, Nayef (12 серпня 2015). The Moral Code. Foreign Affairs (англ.). Архів оригіналу за 5 березня 2017. Процитовано 23 січня 2018.
  66. Wallach, Wendell; Allen, Colin. Moral Machines: Teaching Robots Right from Wrong. — USA : Oxford University Press, 2008. — ISBN 978-0-19-537404-9.
  67. Bostrom, Nick. The Ethics of Artificial Intelligence (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Архів оригіналу (PDF) за 4 березня 2016. Процитовано 13 жовтня 2019.
  68. Howard, Ayanna. The Regulation of AI – Should Organizations Be Worried? | Ayanna Howard. MIT Sloan Management Review (англ.). Архів оригіналу за 14 серпня 2019. Процитовано 14 серпня 2019.
  69. а б Muehlhauser, Luke, and Louie Helm. 2012. «Intelligence Explosion and Machine Ethics» [Архівовано 7 травня 2015 у Wayback Machine.]. In Singularity Hypotheses: A Scientific and Philosophical Assessment, edited by Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  70. а б Bostrom, Nick. 2003. «Ethical Issues in Advanced Artificial Intelligence» [Архівовано 8 жовтня 2018 у Wayback Machine.]. In Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, edited by Iva Smit and George E. Lasker, 12-17. Vol. 2. Windsor, ON: International Institute for Advanced Studies in Systems Research / Cybernetics.
  71. Sure, Artificial Intelligence May End Our World, But That Is Not the Main Problem // Wired : magazine. — 2014. — . — 12. Архівовано з джерела 31 жовтня 2015. Процитовано 2015-11-04.
  72. Yudkowsky, Eliezer. 2011. «Complex Value Systems in Friendly AI» [Архівовано 29 вересня 2015 у Wayback Machine.]. In Schmidhuber, Thórisson, and Looks 2011, 388—393.
  73. «Partnership on Artificial Intelligence to Benefit People and Society». N.p., n.d. 24 October 2016.
  74. Fiegerman, Seth. «Facebook, Google, Amazon Create Group to Ease AI Concerns». CNNMoney. n.d. 4 December 2016.
  75. CCC Offers Draft 20-Year AI Roadmap; Seeks Comments. HPCwire (англ.). 14 травня 2019. Архів оригіналу за 18 березня 2021. Процитовано 22 липня 2019.
  76. Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog (англ.). Архів оригіналу за 14 травня 2019. Процитовано 22 липня 2019.

Література[ред. | ред. код]

  • McCorduck, Pamela. Machines Who Think (2nd ed.). — Natick, MA : A. K. Peters, Ltd, 2004. — ISBN 1-56881-205-1.

Посилання[ред. | ред. код]