Drones e carros autônomos como armas: por que precisamos ter medo de hackers
Drones e carros autônomos como armas: por que precisamos ter medo de hackers
Anonim

Se a inteligência artificial cair em mãos erradas, o mundo civilizado pode mergulhar no caos.

Drones e carros autônomos como armas: por que precisamos ter medo de hackers
Drones e carros autônomos como armas: por que precisamos ter medo de hackers

Ninguém vai negar que a inteligência artificial pode levar nossas vidas para o próximo nível. A IA é capaz de resolver muitos problemas que estão além do poder dos humanos.

No entanto, muitos acreditam que a superinteligência com certeza vai querer nos destruir, como a SkyNet, ou vai começar a fazer experimentos com pessoas, como o GLADoS do jogo Portal. A ironia é que apenas os humanos podem tornar a inteligência artificial boa ou má.

Por que a inteligência artificial pode ser uma ameaça séria
Por que a inteligência artificial pode ser uma ameaça séria

Pesquisadores da Yale University, Oxford, Cambridge e OpenAI publicaram um relatório sobre o abuso da inteligência artificial. Diz que o perigo real vem dos hackers. Com a ajuda de código malicioso, eles podem interromper a operação de sistemas automatizados sob o controle da IA.

Os pesquisadores temem que tecnologias bem-intencionadas sejam prejudicadas. Por exemplo, o equipamento de vigilância pode ser usado não apenas para capturar terroristas, mas também para espionar cidadãos comuns. Os pesquisadores também estão preocupados com drones comerciais que entregam alimentos. É fácil interceptá-los e plantar algo explosivo.

Outro cenário para o uso destrutivo de IA são os carros autônomos. Basta alterar algumas linhas de código e as máquinas começarão a ignorar as regras de segurança.

Por que a inteligência artificial pode ser uma ameaça séria
Por que a inteligência artificial pode ser uma ameaça séria

Os cientistas acreditam que a ameaça pode ser digital, física e política.

  • A inteligência artificial já está sendo usada para estudar as vulnerabilidades de vários códigos de software. No futuro, os hackers podem criar um bot que contornará qualquer proteção.
  • Com a ajuda da IA, uma pessoa pode automatizar muitos processos: por exemplo, controlar um enxame de drones ou um grupo de carros.
  • Com a ajuda de tecnologias como DeepFake, é possível influenciar a vida política do estado, espalhando informações falsas sobre líderes mundiais usando bots na Internet.

Esses exemplos assustadores até agora existem apenas como uma hipótese. Os autores do estudo não sugerem uma rejeição completa da tecnologia. Em vez disso, eles acreditam que os governos nacionais e as grandes empresas devem cuidar da segurança enquanto a indústria de IA ainda está em sua infância.

Os formuladores de políticas devem estudar tecnologia e trabalhar com especialistas na área para regular com eficácia a criação e o uso de inteligência artificial.

Os desenvolvedores, por sua vez, devem avaliar o perigo representado pela alta tecnologia, antecipar as piores consequências e alertar os líderes mundiais sobre elas. O relatório convida os desenvolvedores de IA a se unirem a especialistas em segurança em outras áreas e ver se os princípios que garantem a segurança dessas tecnologias podem ser usados para proteger a inteligência artificial.

O relatório completo descreve o problema com mais detalhes, mas o resultado final é que a IA é uma ferramenta poderosa. Todas as partes interessadas devem estudar a nova tecnologia e certificar-se de que ela não está sendo usada para fins criminosos.

Recomendado: