Opinião

Regulamentar significa debater: IA tem ou não consciência?

Por Sergio Ricardo Oliveira*

As regulamentações existentes no mundo sobre inteligência artificial, incluindo a mais recente – o Artificial Intelligence Act, publicado pela União Europeia em março de 2024, – não cobrem o tema que – na opinião deste autor – deveria ser o mais preocupante de todos: o controle sobre pesquisas que visem a criar uma IA “consciente”.

O estudo do que é ser “consciente” ou ter “consciência” é um tema coberto pela Neurociência, pela Filosofia, pela Ciência da Computação, dentre outros campos. Apesar – ou talvez justamente – por causa dessa diversidade, não existe um consenso sobre o que é a “consciência” ou sobre o que é ser “consciente”. Muitas tentativas de definição de “consciência” encontradas na literatura técnica são recursivas ou circulares (o que não tem – na opinião deste autor – um valor prático). Para fins práticos e apenas suficientes ao objetivo deste artigo, assume-se aqui a seguinte definição:

Ser “consciente” é ter a capacidade de raciocinar acerca de si próprio. O leitor não satisfeito com esta definição pode se dar ao trabalho de estudar em profundidade o assunto – que é um tema aberto na ciência – portanto, sem uma única corrente mainstream e, consequentemente, sem uma definição majoritária do que é “consciência” e do que é ser “consciente”; mas, para fins deste artigo, a definição acima é suficiente. Como se pode inferir através dela, ter “consciência” requer a capacidade de raciocinar, o que, até o presente momento – e no planeta Terra –, é uma característica apenas da espécie humana; além disso, a “consciência” está em um patamar acima da capacidade de raciocinar.

O atingimento da capacidade de raciocinar por uma Inteligência Artificial, tecnicamente conhecido como AGI (Artificial General Intelligence – termo que se refere à capacidade de entender, aprender e aplicar conhecimento em uma variedade ampla de tarefas, de forma equivalente à inteligência humana) é dado como certo entre a maioria dos especialistas – o que varia é a estimativa do prazo para isso ocorrer, indo de alguns anos a algumas décadas, a contar do ano de 2024.

Já com relação à “consciência”, Butlin et al. (2023), em seu recente artigo intitulado “Consciousness in Artificial Intelligence: Insights from the Science of Consciousness”, sustentam: […] we take seriously the possibility that conscious AI systems could be built in the relatively near term – within the next few decades […]” (BUTLIN, et al., 2023 p. 9). Em suma, as evidências favorecem o prognóstico de que as inteligências artificias estão caminhando para o atingimento da “consciência”, e que isso não é meramente ficção científica para livros e filmes.


Há um vasto número de questões morais que decorrerão do fato de uma IA possuir consciência. Para citar apenas duas: uma IA “consciente” poderá ser imputável de um crime cometido por ela? Se um ser humano desligar uma IA consciente, isso será moralmente admissível? Além das questões morais, há o perigo inerente aos seres humanos advindo da possibilidade de existirem agentes de IA que não apenas terão maior capacidade de raciocínio que os humanos, mas também terão “consciência”, e, assim, potencialmente poderão agir para se preservar em detrimento da preservação dos humanos; ou poderão agir para tentar impedir que os humanos atuem no sentido de limitar a sua capacidade.

Fazendo um paralelo com a Biologia, o “Gain of Function” refere-se a uma mutação genética que resulta em uma nova função ou atividade de um gene ou proteína que não existia previamente. Essas mutações podem ocorrer naturalmente ou ser induzidas em laboratório (neste caso são chamadas de “Gain of Function Research”) para estudar diversas características uncionais de genes e proteínas.

No contexto de Virologia, o “Gain of Function” também pode se referir à alteração de um vírus para que ele adquira novas propriedades, como a habilidade de infectar diferentes tipos de células ou de se transmitir mais eficientemente. Há indícios de que o vírus SARS-CoV-2 foi alvo de “Gain of Function” (Intercept, 2021), o que evidencia o perigo que esse tipo de pesquisa representa para a humanidade. Nos EUA, a emenda de número 116 impressa na Parte B do Relatório da House of Representatives 118-272 proíbe que verbas federais sejam disponibilizadas para realizar ou apoiar pesquisas de ganho de função (Congress, 2023). Por analogia, é opinião deste autor que pesquisas que levem ao atingimento de “consciência” pelas IA deveriam ser restritas.

No caso específico da IA, este autor reconhece que é mais difícil identificar se uma pesquisa está direcionada ao atingimento da “Consciência Artificial” (CA), posto que – por premissa – todas as pesquisas em IA visam a aproximar a capacidade de cognição dos computadores à dos seres humanos. Contudo, as pessoas e instituições que trabalham com pesquisa em IA – sejam elas financiadas com verbas públicas ou não – deveriam ser obrigadas por lei a publicarem relatórios mensais sobre seus avanços no sentido do atingimento da CA, e deveriam assinar termo de compromisso de que não trabalharão especificamente com este objetivo; penalidades deveriam ser estabelecidas para pessoas e instituições que violassem essa determinação. Há testes objetivos que visam a detectar o atingimento da CA, como o proposto no artigo de Butlin et al. (2023).

Este autor entende que não existe um perigo maior para dizimar a humanidade – a médio prazo – que o atingimento da CA. Espantosamente, as regulamentações existentes são omissas sobre isso, e é isso que este texto procura alertar. 

* Sergio Ricardo Oliveira é diretor da BU de Business Transformation da Lanlink = [email protected]

Referências

Botão Voltar ao topo