Đây là những nguyên tắc đạo đức mà Google sẽ sử dụng để phát triển hệ thống trí tuệ nhân tạo của mình

Google

Chỉ một vài ngày trước, một tin tức được đưa ra thực sự không làm cho một công ty như Google ở ​​một nơi rất tốt., chúng tôi đã nói cụ thể về việc nhiều nhân viên của công ty phản đối đến mức một số đã rời bỏ công việc vì họ biết rằng công ty Bắc Mỹ đang hợp tác với Lầu Năm Góc trong việc phát triển trí tuệ nhân tạo dành cho quân đội.

Cụ thể, chúng tôi nói về cái được gọi là Dự án Maven, gây ảnh hưởng rất lớn trong những ngày gần đây không làm tốt được uy tín của công ty. Do đó, không có gì ngạc nhiên khi các lãnh đạo chính của cả bộ phận này và công ty ngay từ đầu đã quyết định Không gia hạn hợp đồng ràng buộc họ với Bộ Quốc phòng Hoa Kỳ trong khi, để trấn an toàn bộ cộng đồng và đặc biệt là người lao động, họ đã công bố một loạt các tiêu chuẩn đạo đức sẽ được tuân theo kể từ bây giờ trong tất cả các phát triển liên quan đến lĩnh vực này.

Google sẽ tiếp tục tìm kiếm cả hợp đồng quân sự và chính phủ

Giờ đây, với tư cách là một công ty tư nhân tốt, tồn tại nhiều lần nhờ các hợp đồng ngon lành được ký kết với các tổ chức công, Google làm rõ điều đó, mặc dù đã công bố các nguyên tắc đạo đức này để phát triển các hệ thống dựa trên trí tuệ nhân tạo sẽ tiếp tục tìm kiếm các hợp đồng quân sự và chính phủ vì ngày nay họ là những lĩnh vực đầu tư hàng tỷ đô la vào các dịch vụ đám mây và Google hay bất kỳ công ty tương tự nào khác đều không muốn đứng ngoài lĩnh vực kinh doanh này.

Những từ này theo đúng nghĩa đen từ báo cáo đã được xuất bản trong trang web google ở đó, chúng ta có thể đọc những thứ như:

Chúng tôi muốn làm rõ rằng mặc dù chúng tôi không phát triển AI để sử dụng trong vũ khí, chúng tôi sẽ tiếp tục làm việc với các chính phủ và quân đội trong nhiều lĩnh vực khác. Chúng bao gồm an ninh mạng, đào tạo, tuyển quân, chăm sóc sức khỏe cựu chiến binh và tìm kiếm cứu nạn.

trí tuệ nhân tạo

Đây là 7 tiêu chuẩn đạo đức mà Google đã tự đặt ra cho sự phát triển của hệ thống trí tuệ nhân tạo

Đây là bảy tiêu chuẩn đạo đức Google đảm bảo rằng nó sẽ tuân thủ khi phát triển một nền tảng trí tuệ nhân tạo mới:

1. Có lợi cho xã hội

Khi phạm vi của các công nghệ mới ngày càng ảnh hưởng đến xã hội, những tiến bộ trong trí tuệ nhân tạo sẽ được tìm cách biến đổi trong nhiều lĩnh vực bao gồm y tế, an ninh, năng lượng, giao thông vận tải, sản xuất và giải trí. Khi phát triển trí tuệ nhân tạo, chúng tôi sẽ tính đến nhiều yếu tố xã hội và kinh tế trong việc phát triển nền tảng của mình khi chúng tôi tin rằng những lợi ích có thể xảy ra tổng thể về cơ bản lớn hơn những rủi ro và bất lợi có thể thấy trước.

2. Tránh tạo ra hoặc củng cố một thành kiến ​​không công bằng

Chúng tôi sẽ cố gắng tránh những tác động không công bằng mà hệ thống trí tuệ nhân tạo có thể gây ra cho con người, đặc biệt là những người liên quan đến các đặc điểm nhạy cảm như chủng tộc, dân tộc, giới tính, quốc tịch, thu nhập, khuynh hướng tình dục, khả năng và niềm tin chính trị hoặc tôn giáo.

3. Được xây dựng và thử nghiệm về độ an toàn

Chúng tôi sẽ thiết kế hệ thống trí tuệ nhân tạo của mình đủ thận trọng và sẽ cố gắng phát triển chúng phù hợp với các phương pháp hay nhất trong nghiên cứu bảo mật trí tuệ nhân tạo. Khi thích hợp, chúng tôi sẽ kiểm tra các công nghệ AI trong các môi trường hạn chế và theo dõi hiệu suất của chúng sau khi triển khai.

4. Có trách nhiệm với mọi người

Chúng tôi sẽ thiết kế các hệ thống trí tuệ nhân tạo cung cấp các cơ hội thích hợp để nhận xét, giải thích có liên quan và hấp dẫn. Các công nghệ trí tuệ nhân tạo của chúng tôi sẽ chịu sự chỉ đạo và kiểm soát thích hợp của con người.

5. Kết hợp các nguyên tắc thiết kế quyền riêng tư

Chúng tôi sẽ tạo cơ hội để nhận được thông báo và sự đồng ý, khuyến khích các kiến ​​trúc an toàn về quyền riêng tư, đồng thời cung cấp sự minh bạch và kiểm soát thích hợp đối với việc sử dụng dữ liệu.

6. Duy trì các tiêu chuẩn cao về khoa học xuất sắc

Các công cụ trí tuệ nhân tạo có tiềm năng mở ra các lĩnh vực khoa học và kiến ​​thức mới trong các lĩnh vực quan trọng như sinh học, hóa học, y học và khoa học môi trường. Chúng tôi mong muốn đạt đến các tiêu chuẩn cao về sự xuất sắc của khoa học khi chúng tôi làm việc để thúc đẩy sự phát triển của trí tuệ nhân tạo.

Chúng tôi sẽ làm việc với nhiều bên liên quan để thúc đẩy sự lãnh đạo chu đáo trong lĩnh vực này, dựa trên các phương pháp tiếp cận đa ngành và chặt chẽ về mặt khoa học. Và chúng tôi sẽ chia sẻ kiến ​​thức về AI một cách có trách nhiệm bằng cách xuất bản các tài liệu giáo dục, các phương pháp hay nhất và nghiên cứu cho phép nhiều người phát triển các ứng dụng AI hữu ích.

7. Sẵn sàng sử dụng phù hợp với các nguyên tắc này

Chúng tôi sẽ làm việc để hạn chế các ứng dụng có khả năng gây hại hoặc lạm dụng. Khi chúng tôi phát triển và triển khai công nghệ trí tuệ nhân tạo, chúng tôi sẽ đánh giá khả năng sử dụng dựa trên các yếu tố sau:

  • Mục đích chính và sử dụng - mục đích chính và khả năng sử dụng công nghệ và ứng dụng, bao gồm mối quan hệ chặt chẽ hoặc có thể thích ứng với việc sử dụng giải pháp có hại
  • Bản chất và tính độc đáo: nếu chúng tôi đang cung cấp công nghệ có sẵn là duy nhất hoặc nói chung là có sẵn
  • Escala : liệu việc sử dụng công nghệ này có tác động đáng kể hay không
  • Bản chất của sự tham gia của Google - Cho dù chúng tôi cung cấp các công cụ có mục đích chung, tích hợp các công cụ của khách hàng hoặc phát triển các giải pháp tùy chỉnh

Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: Miguel Ángel Gatón
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.

  1.   Christina LaFee dijo

    Chào John !

    Nhận được một lời chào nồng nhiệt!

    Tôi muốn nói chuyện với bạn về một đề xuất hợp tác thông qua tạp chí kỹ thuật số của chúng tôi.

    Tôi đánh giá cao trả lời tốt của bạn.