«A Próxima Vaga» é o título do livro escrito pelo britânico Mustafa Suleyman – em coautoria com Michael Bhaskar – recentemente editado pelo Clube do Autor. Esta obra foi eleita como o «Livro do Ano» pelos jornais Economist, Financial Times, The Guardian, pela CNN, pela Bloomberg e pela revista CEO Magazine North and South America. Este livro foi também o vencedor de Inc. Non-Obvious Book Award, tendo ainda sido considerado «Book of the Year» pela editora Porchlight Business Book Awards que recompensa os melhores livros publicados em cada ano, em particular os considerados mais importantes para as empresas.
Quem é Mustafa Suleyman, o autor do livro «A Próxima Vaga»?
Mustafa Suleyman tem passado uma boa parte da sua vida a correr atrás de um sonho: a Inteligência Artificial (IA). Cofundou em 2010 a empresa DeepMind Technologies Limited, (também conhecida sob o nome comercial de Google DeepMind), um laboratório anglo-americano de investigação em inteligência artificial, que Suleyman vendeu à Google em 2014.
Mudou-se em seguida para as Big Tech para liderar os esforços de IA, tendo criado outra empresa – a Inflection AI – sociedade tecnológica americana que desenvolve aplicações de aprendizagem automática e de inteligência artificial generativa, fundada na Califórnia em 2022. Atualmente Mustafa Suleyman é o CEO da divisão de Inteligência Artificial da Microsoft. Ao todo, são já mais de 15 anos a acompanhar por dentro a evolução do mercado da IA, desde os jogos de AlphaGo, até à explosão dos LLM-Large Language Models (Grandes Modelos de Linguagem), isto é, sistemas de inteligência artificial que compreendem e geram linguagem humana ou natural através do processamento de grandes quantidades de dados e que permitem efetuar uma variedade de tarefas e de análise facilmente manipuláveis por programas de computador, nomeadamente a tradução, a geração de texto, a tradução, a classificação, ou a resposta a questões de conversação.
Por tudo isto, Mustafa Suleyman tornou-se um dos nomes mais conhecidos do setor da Inteligência Artificial em todo o mundo.
IA – o poder e o grande desafio do século XXI
Mas foi também esta sua convivência próxima com a Inteligência Artificial, que considera ser «o poder e o grande desafio do século XXI» que levou Mustafa Suleyman a fazer um aviso sobre os riscos a ela associados, apresentado no livro «A Próxima Vaga» no qual, pede «urgentemente respostas à prova de bala quanto ao controlo e à contenção desta vaga iminente», expressão que usa para se referir às tecnologias centradas na Inteligência Artificial. «Só com essas respostas», sustenta Mustafa Suleyman «é que será possível salvaguardar a possibilidade e a preservação dos Estados-nação democráticos».
Efetivamente, ao longo das mais de 300 páginas desta obra, Mustafa Sukeyman alerta para as consequências desta tecnologia caso a mesma não seja desenvolvida e implementada com responsabilidade e com ética. Não obstante, Suleyman rejeita que este seu alerta deva contribuir para uma visão pessimista da IA. E manifesta mesmo a sua aversão ao pessimismo dizendo que «quando os alertas são demasiado catastróficos tendem a ser ignorados». O autor afirma que «a minha esperança é o contrário, que se faça incidir um holofote sobre estas questões e que se definam todos os factos de forma cuidadosa e explícita».
«Achei que este era o momento para lançar este livro», explicou Suleyman numa recente entrevista ao jornal Observador, porque «a IA está finalmente a atingir o nível de capacidades e a importância que sentia que estavam a caminho». Além disso, também ajuda a fomentar «o interesse popular nas capacidades tecnológicas que estão a avançar rapidamente».
De facto, para só falar nos EUA, já 73% das empresas sediadas neste país utilizam correntemente a Inteligência Artificial.
Os riscos e os benefícios da Inteligência Artificial
Numa das passagens deste livro, Mustafa Suleyman conta que, há alguns anos, fez uma apresentação quer para CEO (diretores-executivos que estão no topo da hierarquia operacional de uma empresa), quer para fundadores de empresas e outros nomes relevantes da indústria nos Estados Unidos chamando a atenção para os problemas de uma Inteligência Artificial sem lei…
«Invasões maciças de privacidade», um «apocalipse de desinformação» e «uma tecnologia passível de ser transformada em arma, criando um conjunto letal de novas armas cibernéticas» foram alguns dos seus alertas. Não obstante, o autor de «A Próxima Vaga» afirma que no desenvolvimento da IA não há apenas pontos negativos. Pelo contrário, Suleyman acredita que «a IA vai dar o contributo mais positivo e extraordinário para o bem-estar humano» e um «enorme impulso de riqueza, de igualdade social e de crescimento económico».
Se é verdade que a apresentação atrás referida aos tecnólogos dos EUA foi por estes recebida com natural reserva, o autor de «A Próxima Vaga» afirma que, alguns anos mais tarde, já muitos deles tinham abandonado essa reserva. «Muita gente que está a trabalhar em IA está a fazê-lo porque sabe que esta tecnologia vai ter um contributo extremamente benéfico», reconhecendo contudo que este processo significa passar por um conjunto de medidas regulatórias e éticas que simplesmente não podem ser contornadas.
«É certo que nem toda a gente pensa assim», sublinha Suleyman em entrevista ao Observador até porque «há quem tente pôr essas questões de lado e talvez não goste de algumas das mensagens deste livro». «Não estou aqui para desvalorizar nada», assegura. «Prefiro uma abordagem mais equilibrada. Assim como acredito que é importante realçar os riscos, também penso que não podemos menosprezar os pontos positivos.»
A regulação da IA é essencial mas, só por si, não é suficiente
Dito isto, Mustafa Suleyman defende que a Inteligência Artificial precisa de regulação e acredita que «a maioria das grandes empresas tecnológicas responsáveis vai receber bem essa regulação». Na verdade, tornou-se claro que esta nova tecnologia precisa de regulação.
Para tanto, o autor sugere a adoção de um modelo que apelida de contenção: «Não é parar o desenvolvimento tecnológico ou os seus benefícios, mas sim garantir que a sociedade mantém um controlo forte em relação a estas questões.» O objetivo é atingir um equilíbrio entre todos os bons elementos, com um programa abrangente de controlo e de mitigação dos riscos. A este propósito, Suleyman deixa várias sugestões, que vão desde auditorias até à realização de alianças ou à criação de uma Autoridade de Auditoria de IA, para aumentar a transparência no uso de modelos.
Na visão de Mustafa Suleyman, «a regulação é essencial mas, por si só, não é suficiente» para executar o modelo de contenção que defende. «O panorama inteiro de IA está a avançar muito depressa e a expandir-se a demasiados territórios para que a regulação seja uma espécie de bala mágica» e faz questão de clarificar que «é um enorme defensor da regulação, mas que é preciso apoio, já que a segurança da IA está longe de ser um problema resolvido». «Acho que precisamos de novos trabalhos sobre como auditar sistemas de IA e novas estruturas tanto para as empresas como para a governança internacional» considerando por outro lado que são precisos mais «críticos a trabalhar do lado de dentro e não a agir apenas depois dos factos consumados».
Uma das críticas mais frequentes no panorama da IA reside no facto de as empresas em destaque nesta área serem as chamadas Big Tech, temendo-se por isso que o poder da IA fique demasiado concentrado. Nomes como a Microsoft e a Google têm estado no pelotão da frente e as ligações que estabeleceram com as startups-estrelas da área (OpenAI e Anthropic) levantam certamente dúvidas quando se fala de concorrência.
Suleyman acredita, contudo, que a IA não vai continuar nas mãos das grandes tecnológicas. «Vai difundir-se muito depressa», assinalando que já começam a ver-se sinais desse movimento: «Já estamos a ver que, com alguns modelos de código aberto, o que é tecnologia de ponta e extremamente cara num mês torna-se barata e amplamente acessível no seguinte. Por isso a ideia de que só as grandes empresas vão ter estes modelos e competências não é verdadeira.»
Em vários casos, os executivos das Big Tech têm sido chamados por governantes para discutir o tema da regulação. Aliás, Mustafa Suleyman considera que «seria muito estranho se as Big Tech não tivessem um lugar à mesa da discussão». «Ignorá-las ou excluí-las seria contraproducente do ponto de vista do modelo de contenção» que defende. Mas, é preciso o «equilíbrio certo de incentivos, cultura interna, investimentos internos e regulação externa». Efetivamente, do ponto de vista de regulação, «tentar trabalhar sem qualquer contributo destas grandes empresas tecnológicas seria como voar de forma cega».
Por outro lado, este especialista em IA defende que «os governos precisam de ter recursos suficientes, com talento e capacidade para compreenderem e reagirem aos desenvolvimentos tecnológicos com a sua própria especialização».
Os riscos e benefícios da IA «são mais compreendidos agora» afirma o autor de «A próxima vaga». E isso «é motivo para um grande otimismo».
De facto, ainda que os avisos sobre uma possível «catástrofe» da IA sejam sérios, Suleyman continua a considerar-se, apesar de tudo, um otimista. Na verdade, o facto de as consequências da IA «serem cada vez mais compreendidas e levadas a sério a um nível mais geral fora do mundo académico, merece ser celebrado».
Inevitavelmente, o autor do livro menciona como um dos responsáveis o ChatGPT, um modelo de inteligência artificial que interage num formato de diálogo permitindo responder às questões colocadas, admitir eventuais erros, discutir premissas incorretas e rejeitar pedidos inapropriados. «Foi a tecnologia de consumo com o crescimento mais rápido da história», frisa Suleyman. Lançada em novembro de 2022, esta ferramenta de IA generativa precisou de apenas uma semana para chegar a um milhão de utilizadores. «Ao longo de 18 meses, a IA explodiu na consciência pública, vemo-la nos jornais, nas redes sociais, é discutida por legisladores e por políticos. Está nos produtos que centenas de milhões de pessoas usam todos os dias», exemplifica. «Por isso, nesse sentido, os riscos – e os benefícios – têm agora mais atenção e são mais compreendidos do que nunca. E isso é bom.»
Mustafa Suleyman considera que toda a gente deve estar super-envolvida nesta transição. Por agora, é um sinal positivo que, embora com abordagens diferentes, existam vários países a colocar a segurança da IA na agenda política. «Se me dissessem há dois ou três anos que a Casa Branca assinaria uma ordem executiva sobre IA eu ficaria muito surpreendido».
Por outro lado, o autor de «A Próxima Vaga» assinala que a União Europeia (UE) tem sido obviamente uma líder neste domínio e está a fazer um excelente trabalho, assim como os EUA e o Reino Unido.
«É sempre difícil dizer como é que qualquer grande mudança de plataforma tecnológica se vai desenrolar no futuro», reconhece Suleyman «mas sinto que o mundo está hoje mais preparado do que estava aquando do seu primeiro lançamento. Agora, existe um público massivo e estão em curso respostas de governos e empresas. E isso é um motivo para um grande otimismo».
União Europeia aprovou as primeiras regras mundiais sobre Inteligência Artificial
Por falar em União Europeia, vale a pena assinalar que o Conselho da UE, a 21 de maio de 2024, «deu luz verde» à «Lei da Inteligência Artificial da UE», a primeira legislação a nível mundial para esta tecnologia. Esta lei tem como objetivo promover o desenvolvimento e a adoção de sistemas de IA seguros e fiáveis em todo o mercado único da UE, tanto por parte de agentes privados como públicos.
Esta lei emblemática e inovadora segue uma abordagem «baseada no risco», o que significa que quanto maior for o risco de causar danos à sociedade, mais rigorosas são as regras. Esta Lei da UE estabelece as regras aplicáveis a todas as empresas que utilizam sistemas de IA com base em quatro níveis de risco que, por sua vez, determinam os prazos que lhes são aplicáveis. Os quatro tipos de risco são: sem risco, risco mínimo, risco elevado e sistemas de IA proibidos.
Na referida «Lei da da Inteligência Artificial da UE», estão definidas outras regras, tais como a proibição de certas práticas, a inclusão de modelos de IA para fins gerais, uma nova arquitetura de governação e medidas de apoio à inovação, bem como medidas de transparência e de proteção dos direitos fundamentais. A «Lei da Inteligência Artificial da UE» prevê no entanto algumas isenções, não sendo aplicável aos sistemas utilizados exclusivamente para fins militares e de defesa, bem como para fins de investigação.
Esta lei prevê, também, coimas por infrações que são fixadas em percentagem do volume de negócios anual global da empresa infratora no exercício financeiro anterior, ou num montante predeterminado, consoante o que for mais elevado, sendo que as pequenas e médias empresas e as startup estão sujeitas a coimas administrativas proporcionais.
A «Lei da Inteligência Artificial da UE» entrou em vigor a 1 de agosto de 2024, sendo plenamente aplicável 24 meses após a sua entrada em vigor, exceto no que se refere a proibições de práticas proibidas (aplicáveis seis meses após a data de entrada em vigor), a códigos de conduta (nove meses após a entrada em vigor), a regras gerais de IA, incluindo a governação (12 meses após a entrada em vigor) e a obrigações para sistemas de alto risco (36 meses).
Esta é a primeira regulação europeia especificamente direcionada para a IA, apesar de os criadores e os responsáveis pelo desenvolvimento desta tecnologia estarem já anteriormente sujeitos à legislação da UE em matéria de direitos fundamentais, de proteção dos consumidores e de regras em matéria de segurança.
Embora seja uma lei da UE, ela possui efeitos extraterritoriais, aplicando-se a qualquer sistema de IA que impacte o mercado ou os cidadãos da UE, independentemente de sua operação em território europeu. Além disso, considerando a necessidade de uma abordagem coordenada e global para lidar com a IA, esta «Lei da Inteligência Artificial da UE» não deixará certamente de servir de inspiração para futuras regulamentações em todo o mundo.
Decididamente, a Inteligência Artificial veio para ficar. Temos que preparar-nos para esta nova tecnologia de ponta. Mas, tal como salienta o autor do livro «A Próxima Vaga», se não podemos menosprezar os seus enormes benefícios, devemos estar conscientes de que a sua utilização comporta riscos a que importa estarmos atentos e que exigem dos governantes de todo o mundo a adopção de medidas regulatórias e éticas que simplesmente não podem ser contornadas.
:: ::
«Portugal e o Futuro», opinião de Aurélio Crespo
(Cronista/Opinador no Capeia Arraiana desde Julho de 2020)
:: ::
Leave a Reply