Inovação

Índia muda política e decide por autorregulação de inteligência artificial

Sistemas, mesmo arriscados, não precisam de licença do governo, apenas rótulos que alertem usuários.

A Índia decidiu mudar a abordagem de regulamentação da inteligência artificial ​​generativa, depois de inicialmente ter exigido dos criadores que submetessem modelos de risco para aprovação governamental.

Os criadores de modelos arriscados de IA generativa são agora livres de lançar esses sistemas sem aprovação governamental, mas serão encorajados a autorregulação, com inclusão de rótulos aos resultados dos novos modelos, alertando para a potencial falta de confiabilidade.

É uma inversão da posição anterior do Ministério da Eletrónica e Tecnologia da Informação, abandonando um requisito que obrigava à aprovação governamental para modelos de IA em desenvolvimento.

O comunicado atualizado sobre a governação da IA ​​sublinha a importância da autorregulação da indústria e das medidas proativas para enfrentar os desafios emergentes. O governo da Índia justifica a busca de equilíbrio entre a promoção da inovação e a mitigação de riscos potenciais associados às tecnologias de IA.

Ele recomenda rotular o conteúdo gerado por IA que é vulnerável ao uso indevido, por exemplo, na criação de material enganoso, como deepfakes: “Modelos fundamentais de Inteligência Artificial subtestados/não confiáveis/ LLM/Al Generativo, software(s) ou algoritmo(s) ) ou o desenvolvimento adicional de tais modelos deve ser disponibilizado aos usuários na Índia somente após rotular adequadamente a possível falibilidade ou falta de confiabilidade inerente ao resultado gerado”, afirmou o comunicado.


Além disso, sugere o uso de um “pop-up de consentimento” ou mecanismo equivalente para informar explicitamente os usuários sobre possíveis falibilidades ou falta de confiabilidade.

O comunicado do governo indiano sugere que se qualquer intermediário permitir ou facilitar a criação ou modificação de informações de texto, áudio, visuais ou audiovisuais através de seu software ou qualquer outro recurso de computador de uma forma que possa ser potencialmente usada como deepfake ou desinformação, então tal informação devem ser rotulados ou incorporados com metadados ou identificação exclusivos permanentes.

Este rótulo ou identificador deve ser capaz de identificar o recurso informático do intermediário que foi utilizado para criar, gerar ou modificar tais informações. Além disso, se algum usuário fizer alterações nas informações, os metadados deverão ser configurados para identificar o usuário ou recurso de computador que fez essas alterações.

Botão Voltar ao topo