Conheça as 23 diretrizes para evitar o apocalipse das máquinas

0

Será que um dia as máquinas serão inteligentes o suficiente para acabar conosco, assim como nas muitas obras de ficção cientifica? Bem, um grupo de especialistas em I.A (Inteligência Artificial) trabalharam juntos afim de garantir que isso não aconteça.

Eles montaram um conjunto de 23 princípios para orientar futuras pesquisas relacionadas a I.A, que foram aprovados por centenas de profissionais, incluindo o físico teórico Stephen Hawking e o famoso visionário da tecnologia Elon Musk.

Chamadas de Asilomar AI Principles (devido ao parque estadual da Califórnia Asilomar, onde surgiu a ideia), as diretrizes abrangem questões de pesquisa, ética, valores e questões à longo prazo.

Os organizadores da conferência Beneficial AI 2017, onde os princípios foram elaborados, esperam que os princípios forneçam material para uma discussão vigorosa e também metas aspiracionais sobre como o poder de uma I.A pode ser usado para melhorar a vida de todos nos próximos anos.

Para que um princípio fosse incluído na lista, pelo menos 90% dos mais de 100 participantes da conferência tinham que concordar com ele. Dentre os especialistas estavam acadêmicos, engenheiros e representantes de empresas de tecnologia, incluindo o co-fundador do Google, Larry Page.

As diretrizes também dependem de um certo consenso sobre termos específicos, como o que é benéfico para a humanidade e o que não é, mas para os especialistas por trás da lista, isso é apenas uma questão de obter algo registrado nesta fase inicial da pesquisa.

Nenhum sistema atual de I.A é perigoso o suficiente, mas se imaginarmos uma sociedade onde existam máquinas tão capazes ou mais do que os seres humanos mais inteligentes, seria totalmente ingênuo acreditar que o mundo não mudará fundamentalmente, diz Anthony Aguirre, professor de física da Universidade da Califórnia.

Veja também:   Como seria se os invernos fossem longos como em Game of Thrones?

Abaixo, você pode conferir do que se tratam as diretrizes:

Westerworld | 2016
Westerworld | 2016

Pesquisa

1. Objetivo da pesquisa: O objetivo da pesquisa não deve ser o de criar uma I.A sem um proposito claro, mas sim com um objetivo que seja benéfico.

2. Financiamento da pesquisa: Investimentos em I.A devem ser acompanhados por financiamento de pesquisas, para garantir seu uso benéfico, incluindo questões da ciência da computação, economia, direito, ética e estudos sociais, tais como:

• Como podemos tornar os futuros sistemas I.A altamente robustos, para que eles façam o que queremos sem problemas, como a intervenção de hackers?
• Como podemos crescer economicamente através da automação, mantendo os recursos e o propósito das pessoas?
• Como podemos atualizar nossos sistemas legais para que sejam mais justos e eficientes, para acompanhar a I.A e para gerenciar os riscos associados à ela?
• A I.A deve ser alinhada a qual conjunto de valores e que status legal e ético ela deveria ter?

3. Link com a política científica: Deve haver uma interação construtiva e saudável entre pesquisadores de I.A e ‘elaboradores de políticas públicas”.

4. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser promovida entre pesquisadores e desenvolvedores de I.A.

5. Evitar a corrida: As equipes que desenvolvem sistemas I.A devem cooperar ativamente para evitar cortes em normas de segurança.

Ética e valores

6. Segurança: Os sistemas I.A devem ser seguros e seguros durante toda a sua vida operacional, e de forma verificável, sempre que for aplicável e viável.

Veja também:   Por que os cristãos evitam carnes, mas comem peixe na quaresma

7. Transparência sobre falhas: Se um sistema I.A causar dano, deve ser possível determinar o porquê.

8. Transparência judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória e auditável por uma autoridade humana competente.

9. Responsabilidade: Os designers e programadores de sistemas avançados de I.A são partes interessadas nas implicações morais de seu uso, uso indevido e ações, com uma responsabilidade e oportunidade para moldar essas implicações.

10. Alinhamento com valores humanos: Os sistemas I.A altamente autônomos, devem ser concebidos de modo que os seus objetivos e comportamentos possam ser assegurados para se alinhar com os valores humanos ao longo da sua operação.

11. Valores humanos: Os sistemas de I.A devem ser concebidos e operados de forma que sejam compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.

12. Privacidade pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de I.A de analisar e utilizar esses dados.

13. Liberdade e privacidade: A aplicação da I.A em dados pessoais não deve restringir de forma irracional a liberdade real ou percebida pelas pessoas.

14. Benefício compartilhado: As tecnologias de I.A devem beneficiar e capacitar o maior número possível de pessoas.

15. Prosperidade compartilhada: A prosperidade econômica criada por uma I.A deve ser amplamente compartilhada, em benefício de toda a humanidade.

16. Controle humano: Os seres humanos devem escolher como delegar decisões aos sistemas de I.A, para realizar os objetivos determinados pelos humanos.

Veja também:   Tremores estão fazendo a Lua encolher, revela estudo

17. Não subversão: O poder conferido pelo controle de sistemas de I.A altamente avançados, deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos da qual depende a saúde da sociedade.

18. Disputa de armas com I.A: Uma corrida armamentista em armas autônomas letais deve ser evitada.

Problemas a longo prazo

19. Cautela com a capacidade: Não havendo consenso, devemos evitar fortemente suposições sobre os limites superiores nas futuras capacidades de uma I.A.

20. Importância: Uma I.A avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e administrada com cuidados e recursos proporcionais.

21. Riscos: Os riscos apresentados pelos sistemas de I.A, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.

22. Auto-aperfeiçoamento recursivo: Os sistemas de I.A designados ao auto-aperfeiçoamento ou auto-replicação, devem estar sujeitos a medidas rigorosas de segurança e controle.

23. Bem comum: Uma superinteligência artificial só deve ser desenvolvida a serviço de ideais éticos, amplamente compartilhados, e para o benefício de toda a humanidade em vez de apenas uma região ou organização.

Mesmo que ainda não exista uma inteligência artificial capaz de nos destruir, estas diretrizes devem nos dar alguma luz de como se proceder com uma futura I.A.

Fonte



Deixe um Comentário

Twitter Auto Publish Powered By : XYZScripts.com