Генеральний директор Google Сундар Пічаї опублікував на блозі компанії перший кодекс принципів розроблення систем штучного інтелекту, які мають зробити світ кращим.

Славнозвісні три закони робототехніки, або, як їх називають, "правила поведінки роботів", були сформульовані ще в 1942 р. і зробив це знаменитий письменник-фантаст Айзек Азімов в оповіданні "Хоровод" (вперше опубліковане в березні 1942 року в журналі Astounding Science Fiction).
Ці закони свідчать:
1. Робот не може завдати шкоди людині, або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
2. Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому Закону.
3. Робот має дбати про свою безпеку тією мірою, якою це не суперечить Першому або Другому Законам.
Минуло майже 80 років і компанія Google, будучи лідером у розробці штучного інтелекту, вирішила сформулювати основоположні принципи, яких вона дотримуватиметься під час його створення.

Сундар Пічаї наголосив, що компанія не займатиметься розробкою ШІ застосунків у будь-яких технологіях, які можуть завдати шкоди людині, і обов'язково враховуватиме потенційну користь і наслідки таких розробок. Крім цього, Google відмовляється брати участь у розробленні зброї, технологій збору та використання інформації в порушення міжнародно прийнятих норм і технологій, чиє призначення йде врозріз із міжнародним законодавством і правами людини.
Штучний інтелект має бути використаний тільки на благо цивілізації і для цього в Google виділяють сім основних умов:
1. ШІ має приносити користь суспільству.
Досягнення в галузі штучного інтелекту перетворять не тільки сферу розваг, а й охорону здоров'я, безпеку, енергетику, транспорт і виробництво.
Розглядаючи розвиток і використання технологій штучного інтелекту, Google братиме до уваги широкий спектр соціальних та економічних чинників і продовжуватиме розробку лише тоді, коли "передбачувана користь" значно переважатиме ризики заподіяти шкоду. При цьому компанія буде прагнути до поваги культурних, соціальних і юридичних норм у країнах, де вона працює.
2. ШІ повинен перешкоджати створенню або зміцненню упередженості.
Ніхто не заперечує, що відрізнити справедливі упередження від несправедливих не завжди просто, і вони різняться в різних культурах і суспільствах. Google враховуватиме такі делікатні особливості людей, як раса, етнічна приналежність, стать, національність, дохід, сексуальна орієнтація, здібності, політичні або релігійні переконання. Ці аспекти турбують не тільки Google, а й владу багатьох країн: ради з робоетики вже створюються в Нью-Йорку та Сінгапурі.
3. ШІ має сприяти принципам безпеки і перевірятися на відповідність цим принципам.
Google обіцяє розробляти системи штучного інтелекту з належною обережністю і прагнути розвивати їх відповідно до найкращих практик у сфері досліджень безпеки штучного інтелекту.
4.ШІ має бути підзвітний людині.
У Google наголошують, що їхні системи сприйматимуть зворотний зв'язок, нададуть пояснення і можливості для апеляції щодо ухвалених рішень. Люди завжди зможуть вказувати і направляти ШІ.
5. ШІ має конфіденційність конфіденційних даних.
Google обіцяє завжди враховувати принципи конфіденційності та надавати засоби для її захисту. Крім того, компанія забезпечить відповідну прозорість і контроль над використанням даних.
6. ШІ має відповідати науковим стандартам і критеріям.
На допомогу ШІ сподіваються дослідники в цілій низці сфер, і тому комп'ютерні помічники мають повною мірою відповідати висунутим науковою спільнотою вимогам.
Google обіцяє ділитися знаннями ШІ, публікуючи навчальні матеріали, найкращі практики та дослідження, які дадуть змогу більшій кількості людей розробляти корисні застосунки ШІ.
7. Має бути забезпечена масштабованість і доступність застосувань ШІ з урахуванням вище зазначених принципів.
Багато технологій мають подвійне призначення і можуть використовуватися у військових цілях. Google працюватиме над тим, щоб обмежити кількість потенційно небезпечних додатків.