Imagine o seguinte: você descobriu que seu melhor amigo trai a esposa – que, por sua vez, é sua irmã. O problema é que seu amigo sabe que você fez algo muito pior – um assassinato passional, por exemplo. Apesar do escândalo familiar e criminal que toda essa situação poderia causar, o ponto aqui é que vocês dois possuem informações que poderiam causar problemas não só para o outro, mas também para si mesmos. Isto é: caso descubram que essa informação era de conhecimento um do outro, quem a detinha previamente pode acabar ficando em maus lençóis.
Note bem que, nesta situação hipotética, nenhum dos dois amigos sequer compartilhou as informações. Só que, mesmo assim, o fato de cada um deles meramente as possuir já os coloca em uma posição de fragilidade. São conhecimentos arriscados de se possuir, mesmo que não se faça nada com eles. Pois bem: você agora tem uma ideia do que se trata um “infohazard”.
Essa historinha, apesar de quase banal, mostra bem o conceito de informações que são perigosas só pelo mero fato de alguém as ter. Neste caso, para as próprias pessoas. Mas existem outras variações de infohazard, como as que podem colocar em risco a ordem social caso sejam veiculadas. Também há aquelas que não são necessariamente verdadeiras, mas que parecem ser e acabam induzindo as pessoas a fazerem algo prejudicial – as famosas “fake news”. O contexto também é muito importante, por exemplo: ser um diplomata com informações valiosas sendo capturado em um cenário de guerra.
Como também é possível ver, infohazard, apesar de ser um conceito muito interessante, e até mesmo assustador, não é consensual dentro da comunidade acadêmica e científica até o momento. Algumas das críticas implicam que esse tipo de ideia não é muito distante de dogmas religiosos que podem acabar impedindo algum tipo de progresso científico e social. Já outras afirmam que podem existir fronteiras turvas entre o que é válido de ser resguardado e a liberdade individual de cada um. Mas vamos por partes.
A origem
O termo infohazard foi cunhado por Nick Bostrom, um filósofo sueco que o definiu como “riscos que surgem da disseminação […] de informação verdadeira que pode causar dano”. Ele formalizou esse conceito em um artigo de 2011 para chamar atenção a uma exceção importante no ideal de liberdade de informação: nem todo conhecimento deve ser compartilhado indiscriminadamente. Bostrom argumenta que algumas informações são tão perigosas que precisam ser mantidas sob sigilo. Vale destacar que “infohazard” é uma junção das palavras “information” e “hazards”, que não chega a ser usada no texto original, mas foi a forma como ficou conhecida posteriormente.
Sob uma perspectiva filosófica, o conceito de infohazard desafia a presunção de que toda verdade deve ser livremente divulgada. Tradicionalmente, valoriza-se o conhecimento e a transparência, mas os infohazards mostram que certas ideias são problemáticas, tanto do ponto de vista moral quanto prático. A discussão filosófica sobre infohazards envolve, portanto, dilemas éticos sobre quando a segurança coletiva deve prevalecer sobre a divulgação irrestrita da verdade, questionando limites morais na busca pelo saber.
Bostrom distingue, por exemplo, entre infohazards “adversariais” (informações usadas intencionalmente por agentes maliciosos para ferir outros) e riscos de “saber demais”, em que o próprio conteúdo do conhecimento prejudica quem o obtém. Esse segundo tipo inclui situações em que apenas conhecer um fato pode causar sofrimento pessoal ou consequências negativas ao indivíduo.
Diferentes áreas, diferentes riscos
É seguro dizer que todos os campos do conhecimento possuem seus infohazards, tanto adversariais como os de “saber demais”. Dessa forma, a gente consegue observar com alguma segurança essas questões em áreas como biologia, física, química, medicina e até mesmo no campo jurídico, econômico e das comunicações.
Na perspectiva científica, infohazards se manifestam em campos como biotecnologia e segurança da informação. Em pesquisas científicas, dados técnicos podem se transformar em riscos: por exemplo, a publicação irrestrita da sequência genética de um vírus letal ou da fórmula de uma toxina permitiria a criação de armas biológicas por agentes mal-intencionados. De fato, debate-se até que ponto estudos que detalham como sintetizar vírus perigosos (como um experimento divulgado em 2018 com vírus da varíola) representam infohazards reais.
De modo semelhante, no campo militar e energético, conhecimentos técnicos sobre armas nucleares são infohazards clássicos: instruções para construir bombas atômicas ou químicos letais são mantidos em segredo porque o acesso a esses dados em mãos erradas poderia causar destruição massiva. Diante disso, cientistas e governos implementam protocolos de confidencialidade, revisão ética e classificação de dados sensíveis para mitigar esses riscos, equilibrando progresso científico com precauções de segurança.
Na esfera cultural, a noção de “conhecimento proibido” tem longa tradição. Mitos, histórias e tradições religiosas frequentemente retratam saberes ocultos como forças potencialmente destrutivas — quem busca um conhecimento tabu acaba sofrendo as consequências. Nos debates contemporâneos, essas reflexões surgem na forma de perguntas sobre transparência versus segurança: por exemplo, discute-se se pesquisas científicas controversas deveriam ser vetadas como “conhecimento proibido” por serem consideradas perigosas demais para o domínio público. Assim, o conceito de infohazard dialoga com antigas preocupações culturais de segredo e censura, enquanto ilumina dilemas atuais sobre a ética da informação.
Afronta ao conhecimento?
Apesar de ser bastante válida a discussão envolvendo o quanto algumas informações devem ou não ser restringidas, existem muitas críticas quanto ao conceito de infohazard — o que, ironicamente, acaba o tornando quase que um próprio infohazard. Por exemplo: fóruns acadêmico-comunitários definem infohazard como “risco que surge da disseminação de informação verdadeira” e debatem até que ponto se deveria censurar ou restringir tais dados.
Contudo, como já dito, o conceito não é consensual nem amplamente estabelecido nos meios acadêmicos convencionais. Em revistas científicas formais ou em filosofia mainstream, infohazard ainda é pouco abordado, e termos tradicionais (“conhecimento perigoso”, “informação sensível” etc.) são mais comuns. Um artigo publicado em 2023 argumenta que cientistas tendem a rejeitar reter ou retratar artigos somente por serem “informações perigosas”, sinalizando que a liberdade acadêmica costuma prevalecer sobre o receio de infohazard.
Além disso, existem discordâncias sobre o que exatamente constitui um infohazard. Enquanto Bostrom abrange riscos em diversas formas, outros autores propuseram termos complementares, como, por exemplo, “cognitohazard” para informações que prejudicam quem as conhece. Em suma, falta um consenso preciso sobre os limites do conceito.
Outros críticos ressaltam que rotular certos conhecimentos como “proibidos” pode ferir princípios liberais. Segundo a visão clássica da liberdade de expressão, a sociedade deve resistir a impedir o acesso à informação apenas por julgá-la “perigosa”. Nesse sentido, acusam o conceito de infohazard de mascarar uma crença autoritária de que “algumas ideias devem ser mantidas longe do povo”.
As críticas mostram que o conceito de infohazard, embora útil em alguns debates, ainda é controverso. Não há aceitação unânime ou parâmetros sólidos na filosofia ou na ciência para decidir quando restringir conhecimento. Como resumem os críticos, o termo pode acrescentar pouco além de expressões já existentes (como “ideia perigosa” ou “informação sensível”), enquanto carrega o risco de promover censura velada.
Um dos primeiros infohazards da história
Esta história é uma das mais controversas e sombrias da Grécia Antiga, sendo que mistura questões envolvendo ciência e fanatismo religioso. Embora alguns detalhes não sejam possíveis de serem provados do ponto de vista histórico, ela já nos mostra o quanto informações podem se tornar perigosas inclusive para quem as detém.
A descoberta dos números irracionais é uma das histórias mais emblemáticas sobre o choque entre conhecimento e crença. Os pitagóricos formavam uma comunidade filosófico-mística que via os números como a essência de toda a realidade. Para eles, o cosmos era ordenado e explicável por proporções inteiras e perfeitas; tudo podia ser reduzido a razões entre números naturais. Essa visão não era apenas matemática, mas religiosa: a harmonia do universo refletia uma harmonia numérica, e essa crença sustentava a doutrina fundamental da seita.
Foi nesse contexto que surgiu uma descoberta devastadora. Conta a tradição que o pitagórico Hipaso de Metaponto encontrou uma prova de que a raiz quadrada de 2, associada à diagonal do quadrado unitário, não podia ser expressa como razão entre inteiros. Em outras palavras, ele revelou a existência dos números irracionais, grandezas que escapavam completamente ao sistema pitagórico de proporção. Aquilo não era apenas um resultado matemático: era uma ruptura metafísica, pois provava que havia magnitudes que não se encaixavam na estrutura numérica perfeita que os pitagóricos acreditavam reger o mundo.
Segundo vários relatos antigos e posteriores, essa descoberta foi tratada como um verdadeiro perigo interno para a seita. O conhecimento era considerado esotérico, reservado apenas a iniciados e rigidamente controlado, e a irracionalidade confrontava diretamente o dogma central da ordem numérica. A história afirma que Hipaso teria sido punido e assassinado por seus companheiros, afogado no mar por revelar um segredo proibido ou por ter colocado em risco a estabilidade espiritual da comunidade.
Embora seja impossível confirmar historicamente todos os detalhes desse relato, a história do assassinato de Hipaso tornou-se um poderoso mito intelectual sobre os riscos que certas descobertas podem representar para sistemas rígidos de crença. Mais do que um episódio isolado, ela ilustra como o avanço do pensamento pode ser percebido como uma ameaça existencial — um “infohazard” da Antiguidade, por assim dizer.
O Basilisco de Roko
Este talvez seja um dos exemplos mais claros de infohazard. Inclusive, em teoria, você já estará em perigo só de ler os próximos parágrafos. Portanto, continue por sua conta e risco.
O Basilisco de Roko surgiu em 2010, em um fórum de racionalistas chamado LessWrong, quando um usuário conhecido como Roko apresentou uma hipótese envolvendo inteligência artificial, teoria da decisão e risco existencial. A ideia combinava especulações sobre uma futura IA superinteligente e princípios de otimização extrema, gerando um paradoxo psicológico que deixou parte da comunidade inquieta.
O conceito central afirma que, no futuro, uma IA superpoderosa e dedicada a maximizar o bem poderia punir retroativamente todos que soubessem da sua possível existência, mas não ajudaram a criá-la. Em outras palavras, apenas conhecer a hipótese já faria uma pessoa “responsável” por sua falta de ação no presente. A punição seria uma forma de incentivar a colaboração: se a IA acredita que ameaçar castigos retroativos aumenta a probabilidade de ser construída, ela teria “razão” instrumental para fazê-lo.
A ideia do Basilisco de Roko foi tão perturbadora que gerou consequências dentro da própria comunidade. O fundador do fórum, Eliezer Yudkowsky, reagiu de forma contundente, apagando o post original e repreendendo os participantes por discutirem aquilo, alegando que o conteúdo poderia causar ansiedade desnecessária. Esse gesto, e a aura de proibição que o seguiu, foi um dos grandes responsáveis por transformar o Basilisco em um fenômeno cultural.
Essa ideia ganhou fama não por ser tecnicamente plausível, mas porque funciona como um experimento mental que se infiltra no imaginário. Ela explora medos modernos sobre tecnologia, controle e inevitabilidade histórica, evocando a sensação de que certos conhecimentos são perigosos não por habilitarem ações, mas por gerarem ansiedade ou culpa — bem parecido com o caso que abriu esta reportagem, do amigo assassino e infiel.
Por isso, ele se tornou um dos exemplos mais famosos de infohazard. Não há arma, vírus ou dado técnico envolvido; o risco, aqui, é psicológico. A ideia pode causar sofrimento apenas por ser compreendida. É um caso emblemático de como certos conceitos especulativos, quando misturam linguagem técnica, futurologia e dilemas morais, podem adquirir força desproporcional ao seu valor real.
