Zaledwie kilka dni temu pojawiły się wieści, które tak naprawdę nie postawiły firmy takiej jak Google w bardzo dobrym miejscu., rozmawialiśmy konkretnie o tym, ilu jej pracowników protestowało, dochodząc do tego, że kilku z nich odeszło z pracy, ponieważ dowiedzieli się, że północnoamerykańska firma współpracuje z Pentagonem przy opracowywaniu sztucznej inteligencji przeznaczonej dla wojska.
W szczególności mówimy o znanym jako Project Maven, to samo, które wywarło w ostatnich dniach ogromny wpływ i nie wpłynęło na prestiż firmy. W związku z tym nie dziwi fakt, że zdecydowali o tym główni liderzy zarówno tego działu, jak i firmy nie odnawiać umowy, która wiąże ich z Departamentem Obrony Stanów Zjednoczonych natomiast, aby uspokoić całą społeczność, a zwłaszcza jej pracowników, opublikowali szereg norm etycznych, które będą odtąd przestrzegane we wszystkich wydarzeniach związanych z tą dziedziną.
Google będzie nadal wyszukiwać kontrakty wojskowe i rządowe
Teraz, jako dobra firma prywatna, która niejednokrotnie przetrwała z soczystych kontraktów, jakie są podpisywane z podmiotami publicznymi, Google daje do zrozumienia, że pomimo publikacji tych zasad etycznych dla rozwoju systemów opartych na sztucznej inteligencji będzie nadal zabiegać o kontrakty wojskowe i rządowe ponieważ są to sektory, które dziś inwestują miliardy dolarów w usługi w chmurze i ani Google, ani żadna inna podobna firma nie chcą się trzymać z dala od tego biznesu.
Te słowa dosłownie wynikają z raportu opublikowanego w witryna google gdzie możemy dosłownie przeczytać coś takiego:
Chcemy jasno powiedzieć, że chociaż nie rozwijamy sztucznej inteligencji do użycia w broni, będziemy nadal współpracować z rządami i wojskiem w wielu innych obszarach. Obejmują one cyberbezpieczeństwo, szkolenia, rekrutację do wojska, opiekę zdrowotną dla weteranów oraz poszukiwania i ratownictwo.
Oto 7 standardów etycznych, które Google narzucił sobie w celu rozwoju systemów sztucznej inteligencji
Oto siedem standardów etycznych Google zapewnia, że będzie zgodne Tworząc nową platformę sztucznej inteligencji:
1. Bądź społecznie korzystny
Ponieważ zakres nowych technologii w coraz większym stopniu wpływa na społeczeństwo, postępy w dziedzinie sztucznej inteligencji będą dążyły do transformacji w wielu dziedzinach, w tym w medycynie, bezpieczeństwie, energetyce, transporcie, produkcji i rozrywce. Opracowując sztuczną inteligencję weźmiemy pod uwagę szeroki wachlarz czynników społecznych i ekonomicznych w rozwoju naszej platformy, gdy uważamy, że ogólne prawdopodobne korzyści znacznie przewyższają przewidywalne zagrożenia i wady.
2. Unikaj tworzenia lub wzmacniania nieuczciwych uprzedzeń
Będziemy starać się unikać niesprawiedliwych skutków, jakie system sztucznej inteligencji może wywierać na ludzi, szczególnie tych związanych z wrażliwymi cechami, takimi jak rasa, pochodzenie etniczne, płeć, narodowość, dochód, orientacja seksualna, zdolności oraz przekonania polityczne lub religijne.
3. Zbudowany i przetestowany pod kątem bezpieczeństwa
Zaprojektujemy nasze systemy sztucznej inteligencji tak, aby były wystarczająco rozważne i spróbujemy rozwijać je zgodnie z najlepszymi praktykami w badaniach nad bezpieczeństwem sztucznej inteligencji. W stosownych przypadkach będziemy testować technologie AI w ograniczonych środowiskach i monitorować ich wydajność po wdrożeniu.
4. Bądź odpowiedzialny przed ludźmi
Zaprojektujemy systemy sztucznej inteligencji, które zapewnią odpowiednie możliwości komentowania, trafnych wyjaśnień i angażowania. Nasze technologie sztucznej inteligencji będą podlegać odpowiedniemu kierowaniu i kontroli przez człowieka.
5. Uwzględnij zasady projektowania prywatności
Zapewnimy możliwość otrzymywania powiadomień i zgody, zachęcamy do stosowania bezpiecznych architektur prywatności oraz zapewniamy odpowiednią przejrzystość i kontrolę nad wykorzystaniem danych.
6. Utrzymywać wysokie standardy doskonałości naukowej
Narzędzia sztucznej inteligencji mają potencjał, aby odblokować nowe obszary badań naukowych i wiedzy w krytycznych dziedzinach, takich jak biologia, chemia, medycyna i nauki o środowisku. Dążymy do wysokich standardów doskonałości naukowej, pracując nad rozwojem sztucznej inteligencji.
Będziemy współpracować z różnymi zainteresowanymi stronami, aby promować przemyślane przywództwo w tej dziedzinie, opierając się na naukowo rygorystycznych i multidyscyplinarnych podejściach. Będziemy odpowiedzialnie dzielić się wiedzą o sztucznej inteligencji, publikując materiały edukacyjne, najlepsze praktyki i badania, które umożliwią większej liczbie osób tworzenie przydatnych aplikacji AI.
7. Być dostępne do zastosowań zgodnych z tymi zasadami
Będziemy pracować nad ograniczeniem potencjalnie szkodliwych lub niewłaściwych aplikacji. W miarę opracowywania i wdrażania technologii sztucznej inteligencji ocenimy prawdopodobne zastosowania w świetle następujących czynników:
- Podstawowy cel i zastosowanie - podstawowy cel i prawdopodobne zastosowanie technologii i aplikacji, w tym bliski lub możliwy do dostosowania związek z szkodliwym wykorzystaniem rozwiązania
- Natura i wyjątkowość: jeśli udostępniamy technologię, która jest wyjątkowa lub bardziej ogólnie dostępna
- Escala : czy użycie tej technologii będzie miało znaczący wpływ
- Charakter zaangażowania Google - Niezależnie od tego, czy dostarczamy narzędzia ogólnego przeznaczenia, integrujemy narzędzia klienta, czy opracowujemy niestandardowe rozwiązania
Cześć John !
Przyjmij ciepłe powitanie!
Chciałbym porozmawiać z wami o propozycji wspólnej pracy za pośrednictwem naszego magazynu cyfrowego.
Doceniam twoją uprzejmą odpowiedź.