Modelo de IA da Suíça é elogiado por especialista em cibersegurança

“Uma pessoa utiliza o modelo de linguagem suíço Apertus, baseado em inteligência artificial. Para Bruce Schneier, a inteligência artificial criada na Suíça sem fins lucrativos é um exemplo de como a tecnologia pode fortalecer a democracia. Mas só se for usada com responsabilidade.” , “Há alguém aqui da Suíça?”, gritou Bruce Schneier ao público. Mas, no [Fórum Mundial para a Democracia], em Estrasburgo, não houve oportunidade para responder. Em sua palestra, em novembro de 2025 sobre IA e democracia, Schneier, que é docente na Harvard Kennedy School, se referiu repetidamente à Suíça: à ideia de uma [democracia assistida], que surgiu na Escola Politécnica Federal de Zurique (ETH), mas sobretudo ao [Apertus], o modelo de linguagem desenvolvido pela ETH. “Sem interesse de lucro e sem dados roubados”, o modelo de IA da Suíça mostra que uma IA para o bem comum é possível.” , “O Apertus poderia ‘talvez até se tornar um sucesso de exportação’” , “Acho que temos muitos problemas com a democracia. Não são problemas que a IA causou. Muitas vezes são problemas que a IA agravou”, afirma ele em uma chamada através do (aplicativo) Signal em janeiro de 2026.”, “Seria um exemplo de que a tecnologia pode existir sem corporações. Podemos ter modelos de IA que não foram construídos por um bando de bilionários da tecnologia, brancos e homens, com interesse de lucro?”, pergunta Schneier de forma retórica. Um pequeno país mostrou como isso é viável. “Os custos estão caindo e veremos mais desses modelos”, acrescenta. Os modelos de linguagem individuais se tornariam então “em grande parte intercambiáveis” e, por isso, ele acredita que muitos usarão modelos abertos como o Apertus ou o [Sea Lion], de Singapura.” ,“Na Suíça, de onde o Apertus é originário, a confiança da população na IA é mista. Segundo o estudo de 2025 da ETH, 23% das pessoas na Suíça querem que a IA seja usada na administração apenas em casos excepcionais – e 40% apenas onde exista um claro valor agregado. No estudo “[Segurança 25Link externo]” da ETH, a IA ocupa a última posição em termos de confiança social. O valor de 4,3 (de 10) caiu ainda 0,3 em relação ao ano anterior.” , “A confiabilidade pública em IA com certos modelos de negócios pode ser baixa. Eu não confiarei no Facebook para nada. Mas você confia na IA que analisa suas radiografias. Médicas e médicos a utilizam porque ela faz isso melhor.”, “É sabido que modelos de linguagem “podem nos manipular de forma significativamente mais eficaz do que outras pessoas.” Além disso, os mesmos sistemas que “hoje estão em ordem” podem amanhã já se basear em outro algoritmo.” , “Helbing apresenta muitos motivos para pessimismo, mas ao mesmo tempo se diz “otimista”, porque “no final tem que dar certo, caso contrário teríamos estragado tudo por muito, muito tempo”.”, “Iniciativas da sociedade civil” como “Open Data, Open Source, Open Access, hackathons, maker spaces e ciência cidadã, bem como orçamento participativo” devem ser apoiadas e o “esclarecimento sobre abuso de poder e possibilidades de abuso de tecnologias digitais” deve ser impulsionado.” , “Tudo o que permite às pessoas cuidar mais do seu próprio destino deve ser apoiado”, exige Helbing, levando assim um princípio orientador da sociedade liberal para a era da IA. ”, “Laetitia Ramelet também vê esse risco. Ela é filósofa política e, na fundação suíça TA-Swiss, dedica-se aos efeitos da tecnologia sobre a sociedade. O uso de IA “para analisar nosso comportamento e nossas preferências” é o que mais lhe preocupa atualmente em relação à democracia.” “Recomendações personalizadas e conteúdos em grande quantidade podem ser usados por “profissionais que dominam bem esses métodos para influenciar pessoas de forma sutil”.”, “Na perspectiva de Ramelet, na concepção de votação e campanhas eleitorais a IA também já atua diretamente sobre a democracia. “Duas coisas já se pode afirmar com segurança, pois foram comprovadas várias vezes: outputs escritos de IA podem ser muito convincentes, e a força de persuasão tem grande efeito em uma democracia”, explica ela. ”, “Os modelos de IA multiplicariam seus vieses, distorções e tendência à uniformização, pelo menos quando não há medidas preventivas. Ramelet, que dedica seus estudos profundamente aos deepfakes, vê naturalmente também os muitos conteúdos falsos e enganosos gerados rapidamente como um risco para a informação e a orientação em uma democracia.” “Além das interações, Ramelet conta com serviços de IA como parte das instituições democráticas. Há “muitos projetos em andamento” e “iniciativas nesse sentido”. Pelo menos no setor público suíço, ela observa que direitos fundamentais, proteção de dados e controle estão sendo “levados a sério” nesse processo. O atual governo dos EUA não se preocupa com essas coisas. “Sim, o governo continuará a usar IA para desmontar a democracia – porque esse é o seu objetivo”, diz Bruce Schneier. “E as pessoas que se opõem a ele usarão IA para a democracia.” A IA não altera o equilíbrio. Ela dá mais poder a ambos os lados.” ,

Saiba mais