Tai yra etikos principai, kuriuos „Google“ naudos kurdama savo dirbtinio intelekto sistemas

"Google"

Vos prieš kelias dienas pasirodė naujiena, kuri tikrai nepaliko tokios kompanijos kaip „Google“ labai geroje vietoje, mes kalbėjome konkrečiai apie tai, kiek jos darbuotojų protestavo, kad keli išeitų iš darbo, nes sužinojo, kad Šiaurės Amerikos kompanija kartu su Pentagonu kuria kariškiams skirtą dirbtinį intelektą.

Konkrečiai kalbame apie žinomą kaip Projektas „Maven“, tas pats, kas pastarosiomis dienomis sulaukė didžiulės įtakos, kuri nieko gero nepadarė bendrovės prestižui. Dėl to nenuostabu, kad pirmiausia nusprendė tiek šio skyriaus, tiek įmonės pagrindiniai vadovai Nepratęsus sutarties, kuri juos sieja su JAV gynybos departamentu nors, norėdami nuraminti visą bendruomenę ir ypač jos darbuotojus, jie paskelbė etikos standartų seriją, kurios nuo šiol bus laikomasi visuose su šia sritimi susijusiuose pokyčiuose.

„Google“ toliau ieškos karinių ir vyriausybinių sutarčių

Dabar, būdama gera privati ​​įmonė, kuri daugeliu atvejų išgyvena iš sultingų sutarčių, pasirašytų su viešaisiais subjektais, „Google“ labai aiškiai parodo, nepaisant šių etinių principų, susijusių su dirbtiniu intelektu pagrįstų sistemų kūrimu, paskelbimo. toliau ieškos tiek karinių, tiek vyriausybinių sutarčių kadangi tai yra sektoriai, kurie šiandien investuoja milijardus dolerių į debesijos paslaugas ir nei „Google“, nei jokia kita panaši įmonė nenori likti nuo šio verslo.

Šie žodžiai tiesiogine prasme kyla iš ataskaitos, kuri buvo paskelbta google svetainė kur pažodžiui galime perskaityti kažką panašaus:

Norime aiškiai pasakyti, kad nors mes nekuriame dirbtinio intelekto, skirto naudoti ginkluose, toliau bendradarbiausime su vyriausybėmis ir kariškiais daugelyje kitų sričių. Tai apima kibernetinį saugumą, mokymą, karinį verbavimą, veteranų sveikatos priežiūrą, taip pat paiešką ir gelbėjimą.

dirbtinis intelektas

Tai yra 7 etikos standartai, kuriuos „Google“ pati nustatė kurdama dirbtinio intelekto sistemas

Tai yra septyni etikos standartai „Google“ tikina, kad jos laikysis kuriant naują dirbtinio intelekto platformą:

1. Būkite socialiai naudingi

Kadangi naujųjų technologijų sritis vis labiau veikia visuomenę, dirbtinio intelekto pažanga bus transformuojama įvairiose srityse, įskaitant medicinos, saugumo, energetikos, transporto, gamybos ir pramogų sektorius. Kurdami dirbtinį intelektą, kurdami savo platformą, atsižvelgsime į daugybę socialinių ir ekonominių veiksnių, kai manome, kad bendra tikėtina nauda yra daug didesnė už numatomą riziką ir trūkumus.

2. Venkite nesąžiningo šališkumo sukūrimo ar sustiprinimo

Mes stengsimės išvengti nesąžiningo poveikio, kurį dirbtinio intelekto sistema gali sukelti žmonėms, ypač susijusių su jautriomis savybėmis, tokiomis kaip rasė, etninė priklausomybė, lytis, tautybė, pajamos, seksualinė orientacija, gebėjimai ir politiniai ar religiniai įsitikinimai.

3. Sukurtas ir patikrintas dėl saugumo

Mes sukursime savo dirbtinio intelekto sistemas pakankamai apdairias ir stengsimės jas tobulinti pagal geriausią dirbtinio intelekto saugumo tyrimų praktiką. Tam tikrais atvejais mes išbandysime dirbtinio intelekto technologijas ribotoje aplinkoje ir stebėsime jų veikimą po diegimo.

4. Būkite atskaitingas žmonėms

Sukursime dirbtinio intelekto sistemas, kurios suteiks tinkamas galimybes komentuoti, pateikti atitinkamus paaiškinimus ir įtraukti. Mūsų dirbtinio intelekto technologijos bus tinkamai valdomos ir kontroliuojamos.

5. Įtraukti privatumo projektavimo principus

Suteiksime galimybę pranešti ir sutikti, skatinsime saugų privatumą architektūrą ir užtikrinsime tinkamą duomenų naudojimo skaidrumą ir kontrolę.

6. Laikykitės aukštų mokslinės kompetencijos standartų

Dirbtinio intelekto priemonės gali atverti naujas mokslinių tyrimų ir žinių sritis tokiose kritinėse srityse kaip biologija, chemija, medicina ir aplinkos mokslas. Siekdami pažangos dirbtinio intelekto srityje, siekiame aukštų mokslinio meistriškumo standartų.

Bendradarbiausime su įvairiomis suinteresuotosiomis šalimis siekdami skatinti apgalvotą lyderystę šioje srityje, remdamiesi moksliškai griežtais ir daugiadisciplininiais metodais. Ir mes atsakingai dalinsimės dirbtinio intelekto žiniomis, skelbdami mokomąją medžiagą, geriausią praktiką ir tyrimus, kurie leis daugiau žmonių kurti naudingas dirbtinio intelekto programas.

7. Būkite prieinami naudoti šiuos principus atitinkančiais tikslais

Sieksime apriboti potencialiai kenksmingas ar piktnaudžiaujančias programas. Kurdami ir diegdami dirbtinio intelekto technologijas, įvertinsime galimą naudojimą atsižvelgdami į šiuos veiksnius:

  • Pagrindinis tikslas ir naudojimas - pagrindinis technologijos ir programos tikslas ir tikėtinas naudojimas, įskaitant glaudų ar pritaikomą ryšį su žalingu tirpalo naudojimu
  • Gamta ir unikalumas: jei mes teikiame prieinamą technologiją, kuri yra unikali arba apskritai prieinama
  • Escala : ar šios technologijos naudojimas turės reikšmingą poveikį
  • „Google“ dalyvavimo pobūdis - Nesvarbu, ar teikiame bendrosios paskirties įrankius, ar integruojame klientų įrankius, ar kuriame individualius sprendimus

Palikite komentarą

Jūsų elektroninio pašto adresas nebus skelbiamas. Privalomi laukai yra pažymėti *

*

*

  1. Atsakingas už duomenis: Miguel Ángel Gatón
  2. Duomenų paskirtis: kontroliuoti šlamštą, komentarų valdymą.
  3. Įteisinimas: jūsų sutikimas
  4. Duomenų perdavimas: Duomenys nebus perduoti trečiosioms šalims, išskyrus teisinius įsipareigojimus.
  5. Duomenų saugojimas: „Occentus Networks“ (ES) talpinama duomenų bazė
  6. Teisės: bet kuriuo metu galite apriboti, atkurti ir ištrinti savo informaciją.

  1.   Christina LaFee sakė

    Labas Jonas!

    Gaukite šiltą sveikinimą!

    Norėčiau pasikalbėti su jumis apie bendrą darbo pasiūlymą per mūsų skaitmeninį žurnalą.

    Vertinu jūsų malonų atsakymą.