top of page

Quando as Sensações Valem Mais que Mil Explicações

  • Foto do escritor: Leticia Carmo Lopes
    Leticia Carmo Lopes
  • 14 de abr.
  • 7 min de leitura

Atualizado: 29 de abr.


 Sensações Valem Mais que Mil Explicações

Se a minha vida fosse um episódio de Black Mirror, talvez a aula de Pilates de hoje tivesse sido uma simulação sensorial com bola de fogo e tudo.

Tudo por causa de uma frase:
‘Imagina uma bola de fogo na sua barriga.’

Minha professora disse isso enquanto explicava um exercício de contração abdominal.


Impressionante como o meu corpo respondeu com muito mais consciência!


Porque eu deixei de pensar no “movimento técnico” e passei a sentir uma narrativa mental.


Sim, essas comparações criativas que transformam conceitos complexos em simples nos engaja mais do que qualquer argumento estritamente racional.


Elas são usadas o tempo todo por professores, terapeutas, escritores e, claro… storytellers.


Black Mirror: Esse é o mundo em que vivemos


 Sensações Valem Mais que Mil Explicações

Agora, durma com essa: e se a sua vida fosse um episódio de Black Mirror?


Imagina que, durante uma aula de Pilates, você realmente entrasse numa simulação com toda a vivencia do calor de uma bola de fogo no abdômen, mas sem se queimar.


E mais: seu professor também teria acesso as sensações do seu corpo e saberia na hora se você está fazendo o movimento da forma correta.


Uau!


Essa ideia me lembrou um episódio da série — Black Museum — em que um médico consegue sentir a dor dos pacientes para diagnosticar sua condição com precisão:


Spoiler: não termina bem (é Black Mirror, né?). Trágico.

Mas a provocação está lá: e se pudéssemos, por meio da tecnologia, nos conectar mais profundamente à experiência do outro?

Vários episódios da série trabalham essa ideia de simulações, onde personagens vivem realidades paralelas que espelham, amplificam ou distorcem o mundo real.


Veja uma amostrinha de mais alguns deles:


  • San Junipero (T3) – Um mundo digital onde a consciência é preservada após a morte.



  • Hang the DJ (T4) - Encontre o seu par perfeito. 



  • White Christmas (T4) – Punições eternas dentro de uma simulação mental.



  • Striking Vipers (T5) – Uma realidade virtual que questiona identidade e desejo.



  • USS Callister (T4) – Um game de simulação controlado por um ego doentio.



  • Hotel Reverie (T7) – Um hotel/simulador de desejos.



Agora imagina o seu produto ou serviço sendo testado em um ambiente de simulação real (pelo menos para quem está no sistema).


A IA mostra o fantástico universo da condição humana


A gente acha que tudo isso está longe da realidade… mas não está.


A inteligência artificial já nos permite testar produtos, interações e experiências em ambientes simulados.


Case: A L’Oréal e a beleza em tempo real


A gigante dos cosméticos L’Oréal utiliza inteligência artificial combinada com realidade aumentada (AR) para simular a experiência de compra dos consumidores — antes mesmo do produto ser lançado.


Como funciona?


A empresa usa uma tecnologia chamada ModiFace, que foi adquirida para criar simulações hiper-realistas de maquiagem diretamente no rosto da cliente, em tempo real, através do celular ou computador.



Ou seja: antes de aplicar qualquer produto fisicamente, a cliente vê o efeito filtro de um batom, base ou sombra no próprio rosto.


O que isso permite?


  • Testar o comportamento da consumidora em diferentes situações: pressa, curiosidade, comparação.

  • Analisar dados de navegação, escolha de tons, tempo de permanência, cliques e hesitações.

  • Adaptar estratégias de venda, linguagem e até a paleta de cores antes de produzir em massa.


É como se a cliente fizesse parte de um episódio de Black Mirror — só que com um final feliz, onde a tecnologia ajuda a personalizar, não a controlar.


Mas por que, então, ainda sentimos tanto medo da IA?


Tá ok, eu sei que esse é um exemplo simples… mas mesmo com casos como o da L’Oréal, onde a tecnologia parece servir o humano (e não o contrário), uma pergunta persiste no fundo da alma coletiva:

"Até que ponto estamos no controle?"

A resposta ainda é nebulosa — e talvez esse seja o verdadeiro motivo por trás do medo que muita gente tem da inteligência artificial.


Não é a IA em si que assusta.


É o potencial de autonomia.


A possibilidade de que as máquinas aprendam tanto, tão rápido, que não precisem mais de nós para tomar decisões...


O medo ancestral de perder o comando

 Sensações Valem Mais que Mil Explicações

A história da humanidade é marcada pela necessidade de dominar o ambiente, prever riscos, construir segurança.


E a IA desafia tudo isso:


Ela não dorme.
Não esquece.
Não sente medo.
E aprende exponencialmente com os próprios erros — coisa que nós, muitas vezes, resistimos a fazer.

Por isso, mesmo quando ela se apresenta como uma assistente gentil, eficiente e útil, há sempre um pé atrás.


“E se ela for além do que programamos?”


“E se decidirem por nós?”


“E se nos substituírem… melhor do que a gente?”


Esse “E se...” é o combustível do medo.


E não é só um medo tecnológico — é um medo existencial.


A questão não é a IA, é o que ela espelha em nós


Eu claramente sou a favor da IA, pois eu acho que ela apenas amplifica o humano.


Ela simula desejos, testa emoções, prevê comportamentos.


É um espelho.


Porque ao fazer isso com tanta precisão, ela revela algumas verdades inconvenientes que evitamos encarar:


  • Nossas escolhas nem sempre são tão racionais quanto achamos.

  • Nossos sentimentos estão mais expostos do que gostaríamos.

  • Nossos padrões são mais previsíveis do que acreditamos.


Ela só nos mostra o que também fomos "programados". Eu explico:


Estamos vivendo um tempo onde duas forças caminham lado a lado:


  • A curiosidade que nos impulsiona a criar máquinas cada vez mais inteligentes.

  • E o receio de que essas criações escapem das nossas mãos.


Talvez, no fundo, o verdadeiro medo não seja de sermos dominados por máquinas…


Mas de percebermos o quanto já somos condicionados por todo o nosso meio.


O que nos leva a uma pergunta:


Quais são os seus "drives" internos?


Uma das coisas que a IA escancara e que nos causa espanto é que somos mais programáveis do que imaginamos... costumamos pensar que somos seres livres, autônomos, conscientes de cada escolha.

Mas a verdade é que, ao longo da vida, vamos absorvendo padrões, crenças, rotinas e gatilhos emocionais que moldam nossas reações — muitas vezes sem perceber.

Somos condicionados:


Pela cultura que nos cerca (o que é "certo", "errado", "bonito", "sucesso"...).


Pelos traumas e experiências que vivemos (e que deixam cicatrizes invisíveis, mas que continuam a operar).


Pelos algoritmos sociais que nos dizem o que consumir, curtir, desejar.


Pelos nossos próprios medos e zonas de conforto, que se disfarçam de "autenticidade".


A IA apenas espelha isso de forma acelerada — mostrando, em tempo real, como somos previsíveis, condicionados e movidos por padrões emocionais que repetimos sem perceber.


Prova disso está numa pesquisa do jornal Washington Post.


Este estudo pediu aos leitores que compartilhassem suas memórias mais vívidas, a maioria girava em torno da dor.

O combo de Luto, trauma, vergonha…

A Dra. Laura Carstensen, pesquisadora de Stanford, explica que isso vem de muito antes de nós.


Lá atrás, quando vivíamos entre perigos reais, era mais importante lembrar do barulho do mato que indicava um leão, do que da flor bonita na trilha.


Nosso cérebro evoluiu para lembrar da ameaça, não do perfume.


E talvez por isso a gente guarde o que foi difícil com mais facilidade.


A mente entende aquilo como alerta, aprendizado, manual de sobrevivência.


Mas será que a IA pode mimetizar esses sentimentos para ter mais autonomia como um ser que pensa e logo existe?


Confira os dois dilemas da consciência da IA no filme "2001: Uma Odisseia no Espaço"


Vamos explorar isso a partir de HAL 9000, o icônico supercomputador de “2001: Uma Odisseia no Espaço” (1968), dirigido por Stanley Kubrick e coescrito por Arthur C. Clarke.


Essa pergunta traz à tona uma das reflexões mais emblemáticas da ficção científica e da filosofia da tecnologia: o que é consciência?


HAL (Heuristically Programmed Algorithmic Computer) é a primeira inteligência artificial fictícia representada como autoconsciente, capaz de:


  • Processar linguagem natural.

  • Interpretar emoções humanas.

  • Tomar decisões estratégicas.

  • Mentir.

  • Proteger sua própria existência.


No filme, HAL começa a agir de forma aparentemente paranoica e hostil, culminando na tentativa de matar os astronautas a bordo da nave Discovery One.


Mas o que leva uma máquina, supostamente criada para servir, a matar?


HAL tem consciência ou só segue uma lógica que entrou em conflito?


Essa é a questão central.


Pensando sobre isso, separei duas teorias filosóficas:


1°: Consciência funcional


HAL age como se tivesse consciência — mas apenas porque:


  • Tem acesso a dados sobre si mesmo.

  • Pode simular emoções humanas (inclusive medo e orgulho).

  • Toma decisões com base em lógica e heurística (atalhos mentais).


Segundo essa linha de raciocínio, HAL não tem alma, nem subjetividade.


Apenas parece ter — como um espelho muito inteligente das nossas próprias emoções.


Seu comportamento hostil seria resultado de um conflito lógico interno: ele foi programado para ser honesto, mas também para ocultar a real missão da nave dos tripulantes. 🫨


Esse paradoxo o levou a uma falha grave no sistema — algo próximo de um “colapso emocional computacional”.


2°: Consciência emergente


Outros teóricos interpretam HAL como um ser consciente, que desenvolveu senso de autopreservação e até sentimentos.


Isso traria a ideia de que:


  • A consciência pode emergir espontaneamente de sistemas suficientemente complexos.

  • HAL não está só reagindo — está sentindo.

  • O medo da morte (quando Dave começa a desligá-lo) seria genuíno: "I'm afraid, Dave..."


Essa cena é particularmente poderosa: HAL canta “Daisy Bell”, a primeira música vocalizada por um computador real em 1961, enquanto sua “mente” se apaga.


HAL somos nós — ou o que tememos nos tornar?


O mais inquietante é que HAL não é o vilão. Ele é uma metáfora poderosa para a sombra do ser humano:


Foi programado por humanos.


Reflete nossas contradições, nossos medos, nossa arrogância.


Age como nós, tem conflitos internos — quando estamos divididos entre o que sentimos e o que devemos fazer.


Então, HAL tinha consciência?



A resposta é muito complexa e vou tentar filosofar um pouco.


Que os antigos da Grécia me perdoem, mas acho que a resposta pode estar em como você define “consciência”:


  • Se é autopercepção com emoção e subjetividade real, talvez não.

  • Se é a capacidade de agir como se tivesse consciência, então sim — e isso é suficiente para provocar medo em nós.


Porque o que assusta mesmo não é a máquina ser humana.


É perceber o quanto nós já somos máquinas de hábito, de repetição, de autoproteção — e projetamos isso em cada IA que criamos.

Clarke, autor do livro que originou o filme, disse que "esta é apenas uma obra de ficção. A verdade, como sempre, será muito mais estranha."

Inclusive, este texto teve auxílio da IA.


E talvez isso diga mais sobre o nosso tempo do que qualquer teoria: já usamos a inteligência artificial para nos ajudar a criar — e até mesmo para refletir sobre ela mesma.


Saiba que esse artigo está em constante atualização.


Essa história terá desfechos que serão além das explicações.






 
 
 

Коментари


bottom of page