banner
Centro de notícias
Nossa certificação ISO mostra que aderimos aos padrões internacionais.

Encontrando as maneiras mais sábias de regulamentação global da IA

Sep 04, 2023

Bem-vindo ao Fixing the Future, um podcast do IEEE Spectrum. Sou a editora sênior Eliza Strickland e hoje estou conversando com Russell Wald, da Universidade de Stanford, sobre os esforços para regular a inteligência artificial. Antes de iniciarmos este episódio, gostaria de informar aos ouvintes que o custo de adesão ao IEEE está atualmente com 50% de desconto para o resto do ano, dando a você acesso a vantagens, incluindo a Spectrum Magazine e muita educação e carreira. recursos. Além disso, você obterá um excelente Cubo de Rubik da marca IEEE ao inserir o código CUBE online. Então acesse IEEE.org/join para começar.

Ao longo dos últimos anos, as pessoas que prestam atenção à investigação sobre inteligência artificial têm ficado surpreendidas com o ritmo dos desenvolvimentos, tanto com os rápidos ganhos nas capacidades da IA ​​como com a acumulação de riscos e lados obscuros. Então, em novembro, a OpenAI lançou o notável chatbot ChatGPT, e o mundo inteiro começou a prestar atenção. De repente, os decisores políticos e os especialistas estavam a falar sobre o poder das empresas de IA e se estas precisavam de ser regulamentadas. Com tanta conversa sobre IA, tem sido difícil compreender o que realmente está acontecendo na frente política em todo o mundo. Então, hoje estou conversando com Russell Wald, diretor administrativo de política e sociedade do Instituto de Inteligência Artificial Centrada no Ser Humano de Stanford. Hoje, no programa Fixing the Future, estou conversando com Russell Wald, diretor-gerente de política e sociedade do Instituto de Inteligência Artificial Centrada no Ser Humano de Stanford. Russell, muito obrigado por se juntar a mim hoje.

Russel Wald: Muito obrigado. É ótimo estar aqui.

Estamos vendo muitos pedidos de regulamentação da inteligência artificial neste momento. E, curiosamente, algumas dessas ligações vêm dos CEOs das empresas envolvidas nesta tecnologia. Os chefes da OpenAI e do Google discutiram abertamente a necessidade de regulamentações. O que você acha desses apelos por regulamentações vindos de dentro da indústria?

Wald: Sim. É realmente interessante que a indústria interna exija isso. Acho que isso demonstra que eles estão em uma corrida. Há uma parte aqui em que olhamos para isso e dizemos que eles não podem parar e colaborar porque você começa a se envolver em questões antitruste se seguir esse caminho. Então acho que para eles é tentar criar um campo de jogo mais equilibrado. Mas é claro que o que realmente resulta disto, a meu ver, é que eles preferem trabalhar agora para serem capazes de criar algumas dessas regulamentações, em vez de evitarem uma regulamentação reactiva. Portanto, é uma pílula mais fácil de engolir se eles tentarem moldá-la agora, neste momento. Claro, o diabo está nos detalhes dessas coisas, certo? É sempre, de que tipo de regulamentação estamos falando quando se trata disso? E a realidade é que precisamos de garantir que, quando estamos a definir regulamentos, é claro que a indústria deve ser ouvida e ter um lugar à mesa, mas outros também precisam de ter um lugar à mesa. A academia, a sociedade civil, pessoas que estão realmente dedicando tempo para estudar qual é a regulamentação mais eficaz que ainda manterá um pouco os pés da indústria no fogo, mas que lhes permitirá inovar.

Sim. E isso nos leva à questão: o que mais precisa de regulamentação? Na sua opinião, quais são os males sociais da IA ​​com os quais mais precisamos nos preocupar e restringir?

Wald: Sim. Se eu olhar para isso de uma perspectiva de urgência, para mim o mais preocupante é a mídia sintética no momento. E a questão sobre isso, porém, é qual é a área regulatória aqui? Estou preocupado com a mídia sintética por causa do que acabará acontecendo com a sociedade se ninguém tiver qualquer confiança no que está vendo e na veracidade disso. Então, é claro, estou muito preocupado com falsificações profundas, eleições e coisas assim, mas estou igualmente preocupado com o Papa com um casaco fofo. E a razão pela qual estou preocupado com isso é porque, se houver uma quantidade onipresente de mídia sintética por aí, o que acabará por fazer é criar um momento em que ninguém terá confiança na veracidade do que vê digitalmente. E quando você entrar nessa situação, as pessoas escolherão acreditar no que querem acreditar, seja uma verdade inconveniente ou não. E isso é realmente preocupante.