Visões do Futuro http://visoesdofuturo.blogosfera.uol.com.br Só mais um site uol blogosfera Tue, 13 Aug 2019 11:31:37 +0000 pt-BR hourly 1 https://wordpress.org/?v=4.7.2 Como a psicologia dos influenciadores gerou uma crise global de confiança http://visoesdofuturo.blogosfera.uol.com.br/2019/08/13/como-a-psicologia-dos-influenciadores-gerou-uma-crise-global-de-confianca/ http://visoesdofuturo.blogosfera.uol.com.br/2019/08/13/como-a-psicologia-dos-influenciadores-gerou-uma-crise-global-de-confianca/#respond Tue, 13 Aug 2019 10:46:11 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=176

As mídias sociais estão sob a mira de reguladores e organizações não governamentais, ao redor do mundo. Entre as diversas críticas, destaca-se a de que estimulam sofrimento mental e a produção de conteúdos tóxicos, por meio de sistemas de incentivos que funcionam particularmente bem entre os mais novos. O texto de hoje procura explicar como isso funciona, do ponto de vista da psicologia dos influenciadores.

As mídias sociais estão num ponto de virada. O Instagram está conduzindo um teste de remoção do contador de likes da interface pública dos perfis, em sete países, incluindo o Brasil, conforme amplamente reportado pela imprensa local. O Twitter vem testando um aplicativo novo (Twttr), onde as medidas de engajamento não ficam imediatamente visíveis, enquanto reavalia todo o seus sistema de incentivos, incluindo os retweets, conforme destacado pelo próprio CEO da empresa (https://bit.ly/2ZbbJiO). Neste mês, o número de inscritos nos canais com mais de mil inscritos do YouTube deixará de ser exibido com exatidão, dando lugar a um arredondamento, não apenas para os usuários comuns, como para as ferramentas de analytics, significativamente afetadas pela mudança.

Em abril deste ano, a agência regulatória do Reino Unido conhecida como ICO (Information Commissioner’s Office), que se relaciona diretamente com parlamento britânico, lançou uma consulta pública a respeito de um plano de dezesseis medidas focadas na proteção de menores e da privacidade, frente ao apetite das plataformas de mídia social. No centro da consulta está a proposta de veto ao botão de Like do Facebook, Instagram e Snapchat (streak) para todos aqueles que tiverem menos de dezoito anos (https://bit.ly/2PU6Iak). Uma das justificativas é que a funcionalidade manipula comportamentalmente o tempo de exposição à rede social e a disposição para compartilhar informações pessoais.

Neste meio tempo, o Facebook aceitou pagar U$ 5bi para que uma investigação de violação de privacidade conduzida pelo FTC (Federal Trade Comission) fosse encerrada; trata-se da maior multa da história do órgão. Mais relevantemente ainda, o acordo limitará os poderes de Zuckerberg sobre questões relacionadas à privacidade, tornando obrigatória a presença de uma comissão independente que se sentará com os membros do conselho gestor da empresa. Este aspecto também está intimamente ligado às curtidas, as quais permitem inferir idade, gênero, orientação sexual, perfil religioso, perfil político, personalidade, uso de drogas e mesmo QI de quem contribui com esse tipo de input. Vale checar este paper publicado na prestigiosa PNAS e citado mais de 1600 vezes para entender melhor como funciona: https://bit.ly/2UI6Drs.

Curtidas também estão sendo mais e mais relacionadas às Fake News, problema endêmico desta era. De um lado, notícias e outros conteúdos tendem a possuir maior apelo em função de seu tom mais extremo, rendendo mais curtidas do que publicações ponderadas. De outro, a permissividade de quem publica conteúdo falso transita para a compra de curtidas, cujo crescimento é inversamente proporcional ao escrutínio do internauta médio, arredondando a bola de neve.

Há um movimento crescente de oposição a estes excessos, com sede ideológica na Europa e ramificações pelos Estados Unidos e América Latina, que vem ecoando entre os próprios empresários do meio. Por exemplo, em uma palestra recente (https://bit.ly/2DD21wO), Jack Dorsey (Twitter) declarou se arrepender de ter criado o botão de Like e de ter dado excessiva importância aos retweets, reconhecidos por seu papel na rápida disseminação de Fake News. Alguns especialistas em comportamento digital, como Kane Faucher (Western University), começam a falar em transformação irreversível nas mídias sociais (https://bit.ly/2Y220yI).

Não se pode ignorar que a sinceridade de Dorsey, em consonância com o que as outras plataformas de mídia social vêm fazendo, alinha-se a interesses alheios às pressões dos reguladores e intelectuais – mas não dá para assumir que é só isso.

Em meu último texto, propus algumas ideias para entender como esta indústria gigantesca se formou, a partir da coordenação do empenho para gerar e compartilhar conteúdos, com a disposição espontânea para dar curtidas, estrelinhas e, de maneira não menos importante, fazer comentários. De acordo com a hipótese desenvolvida, na origem da primeira tendência está o fato de que o compartilhamento reforça o aprendizado supervisionado, que é intrinsecamente recompensador e precede a nossa espécie, tal como se pode observa pela ubiquidade dos comportamentos lúdicos entre nossos ancestrais. A segunda emerge do senso reciprocidade, que está na base do comportamento moral. Este, por sua vez, é rapidamente substituído pelo interesse pessoal, na medida em que curtidas aumentam as chances de que o mundo virtual – e, em menor grau, físico – molde-se às aspirações daquele que se dedica ao compartilhamento de seus juízos.

Tal modalidade simples e direta de relacionamento cresceu e se transformou. Hoje em dia é difícil imaginar localidade, produto ou questão prática que não tenha sido objeto de foto, texto ou vídeo, criado para o compartilhamento digital. Para muita gente, trata-se de uma forma muito valiosa de contato com o mundo, ainda mais relevante que a propagandeada capacidade de consolidar elos sociais fracos, satisfazendo aspirações e maximizando oportunidades pelas redes sociais (subtipo de mídia social, focado em relacionamentos, como Facebook e Instagram).

Por meio dela, parte significativa dos relacionamentos digitais passou a se dar com produtores independentes de conteúdo, cuja atração é determinada pela capacidade de satisfazer aspirações afetivas ou de conhecimento, nos intervalos disponibilizados para tanto. Formou-se assim o que vem sendo chamado de economia da atenção que, a despeito do nome, é uma forma de produção de valor envolvendo seguidores, tempo de visualização e cliques, sendo mais propriamente uma economia do envolvimento. Em tal domínio, a capacidade de monetização das grandes empresas de tecnologia é diretamente relacionada à percepção de que satisfazer as aspirações da audiência vale a pena – de que postar é bom. Isto desembocou em esforços massivos para elevar a percepção de impacto de quem contribui mais seriamente com conteúdo, de maneira endógena, pelo uso dos sistemas de recomendação para divulgar organicamente o que produzem aumentando as curtidas e seguidores, e de maneira exógena, pela possibilidade de monetizarem essa produção. O grande porém é que estes recursos, junto com seus acessórios, tendem a gerar consequências negativas para os envolvidos.

As seções que seguem descrevem três dos mais relevantes efeitos negativos, a partir de suas manifestações psicológicas, os quais ajudam a entender a origem das reações em curso às mídias sociais.

 

Ancoragem e ajuste faz os que almejam popularidade se sentirem miseráveis

Por razões diversas damos muito mais valor a algumas coisas do que nossos pares. É assim que funcionam as paixões e também é como as pessoas que fazem passagens bem-sucedidas da adolescência para a vida adulta aprendem a se diferenciar.

Quando representado em seu caráter complexo e abstrato, o valor desliza sobre aqueles que o põe em circulação, conforme descrito de diferentes maneiras por filósofos e economistas da segunda metade do século XX. É isso o que explica porque a desigualdade incomoda aqueles que estão na parte debaixo da gangorra, mesmo que o parque de diversões como um todo esteja situado no alto de uma montanha.

Tal paradigma vale para todo tipo de desigualdade e, em si, não é nem totalmente bom, nem totalmente ruim, na medida em que serve de estímulo à alocação de esforço para se equiparar, com efeitos positivos sobre o ecossistema como um todo, ao mesmo tempo em que estimula o acento de dicotomias por parte de quem está na outra ponta, com consequências negativas diversas, às quais muitas vezes vão ao encontro das reações que emergem da impotência para progredir, fraturando a sociedade.

As medidas de satisfação relacionadas à base de seguidores possuída nas mídias sociais seguem este princípio, sendo relativas aos números da categoria, os quais são projetados sobre os outros como se fossem inalienáveis dos mesmos. O princípio também é aplicado a si próprio, tendo por referência os influenciadores mais populares, numa versão da heurística conhecida como ancoragem e ajuste, onde a percepção do valor próprio é dada pela magnitude da depreciação (ajuste) que segue da representação dos mesmos como ideais de si (âncoras). Com isso, índices um dia almejados passam a não despertar mais do que um instante de satisfação ou orgulho, quando atingidos, especialmente se a rede e seus extremos seguem ganhando terreno.

Não é fácil para quem vive este circuito perceber o contrassenso, dada a disponibilidade do argumento de que a audiência elege ou “ama” apenas os campeões de popularidade, não importando os valores absolutos. A consequência é um estado de angústia persistente, especialmente entre os mais jovens e inseguros, que passam a organizar suas vidas em torno de visualizações, Likes e seguidores, puxando seus pares a fazer o mesmo, sem perceber que estão no fim da fila dos beneficiários de tal esforço. Trata-se de um fenômeno particularmente relevante no Instagram, que está na base da consulta para proibir o botão de Like nas postagens do Reino Unido, dirigidas as menores, conforme mencionado acima.

A superioridade do medo de perder sobre o desejo de ganhar

Ambos os hemisférios cerebrais processam cognições e afetos. Porém, o hemisfério direito dos destros tende a ter uma participação proporcional um pouco maior nestes últimos. Um princípio que revela muito sobre a natureza humana emerge daí. Quando fazemos avaliações de satisfação através de sinais cerebrais, frequentemente usamos uma métrica chamada assimetria inter-hemisférica, numa faixa de frequência do EEG (o aparelho usado para fazer análise da qualidade do sono ou diagnóstico de epilepsia) ou através de ressonância magnética funcional. Em geral, maior ativação à direita significa menor satisfação. Quer dizer, quando ativamos mais áreas emocionais, sentimos menos prazer e não mais prazer, como muitos tendem a assumir.

Tal fenômeno reflete o fato de que a capacidade de reagir a eventos negativos é mais decisiva para a sobrevivência do que a capacidade de reagir a eventos positivos. Pelo mesmo princípio, é importante continuar reagindo às coisas negativas até que desapareçam, ao contrário do que se dá em relação às coisas positivas.

Kahneman e Tversky exploraram este fenômeno de maneira fantástica na teoria prospectiva, dos anos 1970, a qual levou o primeiro a ganhar o prêmio Nobel de Economia, em 2002. Na essência da teoria está a ideia de que, conforme vamos acumulando ganhos, deixamos de nos sensibilizar pelos mesmos, o que não acontece com as perdas, que nunca deixam de nos causar desprazer, em função da propriedade evolucionária descrita acima.

Não seria exagero considerar este como um dos mais importantes princípios psicológicos descritos no século XX. Entre diversas outras coisas, explica porque bilionários não são necessariamente pessoas radiantes: em geral, o enriquecimento deixou de acrescentar satisfação relevante anos antes de chegarem ao estágio atual de riqueza, ao passo que as perdas permaneceram dolorosas, por mais que praticamente irrelevantes.

A aplicação à lógica dos influenciadores é clara. A evitação do sofrimento pelo encolhimento da base de seguidores ou impacto das publicações tende a contar bem mais do que as tentativas de experimentar novamente o prazer obtido ao se atingir determinado patamar ou ao se compartilhar verdades íntimas com quem se tem uma relação que independe do meio. O combustível motivacional para se relacionar, enfim, tende a ser mais o medo do que o prazer. As consequências negativas são de duas ordens: a hipótese de perder a base constituída funciona como uma espécie de dependência, inibindo formas alternativas de relacionamento e ocupação, o que limita as oportunidades dos mais jovens; e ela reforça a disposição das pessoas psicologicamente mais frágeis para falar e fazer o que for necessário para se manterem no jogo.

 

A síndrome do impostor

Em artigo publicado no Medium, o famoso professor de neurologia de Stanford, Robert Sapolsky, traça um paralelo entre a síndrome de Capras e as experiências em redes sociais (https://bit.ly/2McHOUj), onde “tornamo-nos crescentemente vulneráveis a impostores (…) que nos contatam dizendo que nos conhecem, querem nos salvar de alguma ameaça de segurança e nos convidam a clicar em seus links. E que, provavelmente, não são exatamente quem dizem ser”. A síndrome surge de um problema em áreas cerebrais ligadas ao reconhecimento e faz com que velhinhos sofrendo de demência avançada, entre outros, suspeitem que seus familiares ou cuidadores foram substituídos por impostores.

De acordo com Sapolsky, essa sensação de estar cercado por picaretas acaba aproximando as pessoas que de alguma forma conseguem encontrar um elo, nas redes sociais. Na minha opinião, faz muito sentido e explica porque o grande dilema dos influenciadores em plataformas como Facebook e Instagram é ser genérico o suficiente para agradar a gregos e troianos e genuíno ou “exclusivo” o suficiente para não ser visto como impostor.

O esforço para encontrar uma fórmula balanceada acaba criando uma relação imaginária sempre prestes a ruir com a audiência, que dita as regras do dia a dia para estes influenciadores, os quais vão se moldando ao personagem desenvolvido, até às beiras da despersonalização, especialmente porque a busca deste suposto caráter genuíno ou “exclusivo” tende a eliminar de vez qualquer possibilidade de se encontrar. Possivelmente, é a isso que Verity Johnson se refere quando diz que a ocupação leva, conforme citado acima, a uma “dessensibilização mental” e que difere, por exemplo, do exercício de papeis profissionais nos empregos tradicionais, onde inexiste essa demanda por suposta exclusividade existencial. Neste ponto, torna-se difícil fazer o caminho contrário, repensando a vida fora do enquadramento que fica após a tela de login, o que subtrai qualquer senso pregresso de autenticidade e, com ele, aspectos valiosos da autoestima e da personalidade.

 

Considerações finais: de quem é a culpa afinal?

Há pelo menos três mecanismos psicológicos poderosos contribuindo para que as pessoas mais vulneráveis simultaneamente sofram e entrem em um vale tudo existencial, que é ruim para o ecossistema das mídias sociais, sob as lógicas de incentivos desenhadas.

Isso porém não abole a responsabilidade de quem age desta maneira, nem tão pouco exclui o fato de que um enorme contingente atua de caso pensado, beneficiando-se da camuflagem propiciada pelos ingênuos. É por meio desta perspectiva que novos modelos de compartilhamento e interação social devem ser pensados e desenvolvidos.

]]>
0
A neuroeconomia dos Likes http://visoesdofuturo.blogosfera.uol.com.br/2019/07/30/a-neuroeconomia-dos-likes/ http://visoesdofuturo.blogosfera.uol.com.br/2019/07/30/a-neuroeconomia-dos-likes/#respond Tue, 30 Jul 2019 15:45:04 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=166

Por que os sistemas de votação digital tornaram-se tão importantes para a sociedade contemporânea? Uma resposta a esta pergunta permite, para além do Instagram com suas dores e problemas ao esconder o número de curtidas, uma visão mais bem fundamentada sobre o presente e o futuro da internet

I. Introdução: o retorno da Web 2.0

A bolha da internet estourou na virada do milênio levando, como sempre é o caso, todo mundo que estava envolvido com o setor a repensar seu futuro. Uma das grandes tendências que emergiu foi a “Internet 2.0”, conceito inventado por um consultor chamado Darcy (1999) e popularizado pelo pessoal da O’Reilly (2004), empresa de ensino à distância que até hoje segue firme e forte. Grande parte do conteúdo da Web até aquele momento era estático e pressupunha que do outro lado estivesse um consumidor passivo, mais ou menos como até hoje se dá em relação à televisão (broadcasting) que, não por acaso, adentra sua segunda década de declínio consecutivo.

Para superar a estaticidade, gerando um produto mais aderente, era necessária uma evolução das linguagens computacionais disponíveis, o que ocorreu com a expansão do JavaScript e do Ajax, criados na primeira metade da década anterior. Este feito permitiu o surgimento de interações numa página. E assim deitaram-se as bases para o surgimento das redes sociais. Este movimento foi simultâneo a uma intensa inflexão na visão do que querem os internautas ou, mais precisamente, no que as dotcom, como eram chamadas as empresas de internet na época, deveriam oferecer para maximizar seus resultados.

Muitos assumiram que se tratava de direcionamento em sentido a algo totalmente novo. Não é bem verdade. Quando Tim Berners-Lee inventou a Web, ele deixou claro que ela seria uma rede colaborativa, focada em relações entre pares e criação horizontal; foram os executivos das dotcom que, ao longo da década de 1990, se distanciaram do conceito original, , em função de dificuldades técnicas e da utilização de um modelo de captação hiperalavancado junto a fundos, sem que um único cliente interagisse com o produto. Como se pode notar, algumas coisas mudam, outras nem tanto.

A reaproximação com o espírito do criador da Web deu resultados, tendo sido acompanhada por um recrudescimento do ânimo dos investidores, apaixonados pela disposição dos usuários em coparticipar. Um pouco mais distante do foco central do capital, tal movimento inspirou a era Maker, com o surgimento do Arduino (2006), que ainda hoje alimenta criativamente boa parte da robótica, internet das coisas e mesmo Blockchain, cujas dificuldades computacionais tecem fortes paralelos com a programação para máquinas, como vejo aqui na área de produção do Grupo WeMind, no dia a dia.

Websites criados dentro dessa filosofia interativa começaram a receber enxurradas de conteúdo, que não podiam ser adequadamente curados. O caminho natural foi a incorporação de sistemas de votação, por meio dos quais o público poderia escolher o que interessa. Assim surgiram os Likes e seus parentes, como estrelinhas e palmas, que fazem a interação rolar em associação com os comentários.

Este ensaio e o próximo procuram responder à seguinte pergunta: por que os sistemas de votação digital tornaram-se tão importantes para a sociedade contemporânea? Minha tentativa de esclarecer este ponto é fruto da hipótese de que uma resposta a esta pergunta permite, para além do Instagram com suas dores e problemas, uma visão mais bem fundamentada sobre o presente e o futuro da internet, os quais serão discutidos a partir destas bases.

II. Uma hipótese para entender a natureza dos sistemas de votação: a razão de darmos Likes

Likes e afins funcionam em duas esferas, uma mais micro, de varejo; e outra mais macro, na relação com grandes agências de marketing e corporações. O comportamento dos consumidores que emitem juízos permite ao administrador e seus algoritmos inferir gostos individuais e tendências. Aqueles alimentam sistemas de recomendação; estes, sistemas de planejamento, conforme especificado abaixo.

Figura I. Como funcionam Likes e afins.

Segundo Matt Locke, ex-diretor de inovação da BBC, a primeira aparição de um Like na internet ocorreu em 2005, na plataforma de compartilhamento de humor B3ta, que permanece no ar até hoje; no mesmo ano o Vimeo também estreou o seu e outros vieram na sequência, geralmente acompanhado de um botão de Dislike. Em 2009, o Facebook lançou a sua versão do Like, que acabou entronizada.

Sistemas de votação alternativos também estiveram presentes desde o início, mimetizando o que acontece fora da internet, onde já existia uma longa tradição de estudo das mais variadas escalas de opinião, chamada psicometria.

A variação mais famosa aos Likes é o sistema de cinco estrelas. Até 2009, o YouTube usava-o, tal como fez Netflix até recentemente; ambos mudaram em função de dois aspectos que afetam a atribuição de estrelas, em contextos sociais. O primeiro é bem conhecido: as pessoas tendem a dar notas extremas (cinco estrelas, sobretudo), o que torna as intermediárias pouco uteis.

O segundo é mais interessante e pouco discutido: ao contrário do que se aplica aos Likes, estrelas induzem as pessoas a atribuir avaliações mais altas àquilo que entendem ter em si valor elevado ou, de outra forma, à projeção da experiência de consumo do seu Eu ideal e não àquilo que efetivamente se dispõem a consumir, de maneira engajada.

No caso específico da Netflix havia também um problema generalizado de entendimento sobre o que significavam as estrelas. Muito gente não sabe, mas as estrelas da plataforma de streaming não refletem avaliações das pessoas sobre determinado filme ou seriado; elas traduzem a chance prevista pelo algoritmo de você gostar do mesmo, o que igualmente significa que as avaliações variam conforme a conta da pessoa logada.

Assim, avaliações distorcidas pela projeção de si mesmo como amante da alta cultura penalizam o próprio sujeito, que então tende a assumir que o algoritmo é ainda pior do que ele de fato é. Em contraste, as estrelas funcionam melhor do que os likes na revisão de bens de consumo e demais contextos, onde o viés identificatório é menos intenso e a granularidade avaliativa mais importante.

A primeira etapa para compreender como este sistema deu tão certo passa pelo esclarecimento da disposição das pessoas a votar, com seus Likes e estrelas, num contexto em que não haviam algoritmos de recomendação eficientes para traduzir este esforço em algo de útil para quem fruiu do conteúdo.

Imagine que estamos em 2007 e você acabou de ver um vídeo legal de um japonês que faz arranjos de plantas exóticas. É possível que você dê um Like? Se você for uma pessoa absolutamente racional, a resposta será: não. Isso porque não há chances relevantes de retorno do investimento de sua ação. Porém é provável que você não seja absolutamente racional e que tenha pensado “sim” – note que existe um sim indireto: basta você alguma vez ter dado Like em um vídeo do YouTube ou Vimeo, sem estar logado. Deste modo, colocamos uma primeira conclusão de pé: votamos porque não somos 100% racionais ou, mais precisamente, não somos inibidos de fazê-lo porque não somos maximizadores racionais.

Um dos experimentos mais conhecidos neste tema da busca da maximização racional tem a seguinte estrutura: pega-se duas pessoas ao acaso; atribui-se a uma delas um bolo de dinheiro e uma instrução: deve oferecer uma parte deste montante para a outra parte; se esta aceitar, a divisão ocorrerá conforme acordaram; se rejeitar, ninguém ganhará nada. O resultado é que a parte que recebe uma parcela considerada injustamente pequena tende a rejeitar a oferta, ficando sem nada, junto com o outro. Com base nisto, um dos meus experimentos preferidos foi concebido. Neste, uma versão adaptada deste jogo é usado com chimpanzés, com uvas-passas no papel de recurso valioso. O resultado é que eles aceitam qualquer oferta feita. Sem tempo ruim.

A conclusão é inegável: porque não mostram sensibilidade à percepção de justiça, chimpanzés são mais racionais do que humanos, neste jogo que serve de parábola para boa parte de nossa vida econômico-social. Humanos, por sua vez, constroem sociedades mais sofisticadas em função de princípios como este, que também subjazem à votação social e funcionam na medida em que não somos radicalmente racionais e nos deixamos sensibilizar por certo senso de reciprocidade, que precede a própria formalização de noções como a de justiça.

A tênue percepção de que se deve alguma coisa após se assistir àquele vídeo que agradou ou ao malabarista do farol, também se relaciona à urgência que sentimos de avisar ao sujeito cuja mochila está aberta, que um papel está prestes a cair, mesmo que estejamos no Japão, indo embora, sem planos de voltar, como demonstrado por Herbert Gintis e outros (recomendo muito este paper).

As redes sociais elevaram a potência de lógicas neuroeconômicas, que evoluíram com a nossa espécie e hoje fazem parte da infraestrutura de nosso sistema cognitivo. Esta é apenas uma delas; trata-se da disposição atenuada inata para agir em reciprocidade e ajudar o outro nos casos em que os custos de fazê-lo são muito menores do que as consequências produzidas.

Tanto este raciocínio se sustenta que pode ser aplicado para solucionar um outro mistério frequentemente discutido: por que, afinal, damos menos estrelas/Likes na Netflix do que no YouTube? Porque no primeiro caso pagamos para assistir ao conteúdo. Em nosso cálculo mental, como diz Richard Taller, já estamos quites.

Passemos para um segundo caso. Mantidas as condições originais, o que é mais provável, você dar um Like para o arranjador de flores japonês ou para outro, de Holambra, num cenário hipotético em que você gostou igualmente dos vídeos? Se você pensa como a imensa maioria das pessoas, dirá este último. A razão para tanto é que, por mais remota que seja, existe uma chance maior deste segundo investimento gerar algum retorno; afinal, sua ação pode estimular o florista a mudar ligeiramente seu entorno. Um dia, quem sabe, você pode estar passando por Holambra e pixels floridos podem adentrar-lhe as retinas. Por menor que seja o efeito, quando este tipo de oportunidade está em jogo, tendemos a priorizar opções que de alguma forma nos favorecem.

Seguindo nesta mesma rota, conseguimos entender a natureza dos algoritmos de recomendação: em sua origem, eles são dispositivos de aceleração do retorno do investimento feito através da votação. Quem vota de acordo com suas convicções tende a ver esse mundo que nos leva a priorizar o florista de Holambra surgir rapidamente, em seu feed, emulando o que seria desejável que ocorresse lá fora, ao passo que quem dá Like para o que não gosta ou Dislike para o que gosta, acaba imerso na dissonância. E aí que mora o erro fatal da Netflix, que passou batido pela realidade das más avaliações, a despeito de ter um dos mais celebrados algoritmos.

Avaliações alinhadas a convicções profundas tendem a reforçar a percepção de que aquele mundo digital está sendo construído à imagem e semelhança de ideais estéticos, temáticos ou ideológicos, o que reforça ainda mais a chance de novos Likes.

Com isso – eis o ponto notável – o próprio algoritmo começa a ser recompensado, aceito como uma espécie de conselheiro real. É neste ponto que surgem as bolhas, como falei em evento recente do Instituto Ethos. Elas não nascem de algo especificamente vil ou maquiavélico, mas antes são consequência incontornável da arquitetura cognitivo-computacional. A situação encapsulada em que vive o sujeito de bem com seu algoritmo de recomendação meramente replica topologias que podem ser modeladas como culturas, países e afins, sem alusões a interesses específicos.

A manipulação é ingrediente opcional, que vêm na sequência.

III. Uma hipótese para entender a natureza dos sistemas de votação: a razão de querermos Likes

Se, de um lado, a coisa toda engrenou porque muitos se dispõem a votar, sob condições que praticamente não lhes permitem tirar proveito disso; de outro, ela naturalmente depende de um investimento muito maior por parte daqueles que almejam que alguém goste do que têm a mostrar, bem antes da existência do negócio publicitário que se formou e que hoje justifica financeiramente tal esforço. Um mistério ainda maior do que o anterior, que pode estar conectado a alguns dos fundamentos da evolução da vida no planeta, por bem poucos graus de separação.

Conforme as espécies organizadas em torno de um núcleo começaram a dividir espaço com os procariontes, há cerca de 1,7 bilhão de anos, a capacidade de navegar o ar a partir de direcionamentos internos passou a dar seus primeiros ares de graça neste planeta, deixando as bactérias, que só se deslocam por diferenças osmóticas do próprio meio, boquiabertas. Mas, afinal, para que lado ir? Junto com a necessidade de responder praticamente a esta pergunta, nascia a avaliação de sinais capazes de indicar desfechos bons ou ruins, princípio que se manteve constante entre as espécies subsequentes e que vale até para alguns tipos de células, como os leucócitos, que replicam aos antígenos, com um tremendo Dislike.

Porém leucócitos e organismos simples têm um impedimento fundamental à flexibilidade: apenas conseguem responder a artefatos muito específicos. A razão é a ausência de um sistema de avaliação universal; algum tipo de princípio que permita se posicionar frente as mais variadas coisas, decidindo entre elas, quando necessário, mesmo que sejam alhos e bugalhos.

Sob este pano de fundo, evoluiu um sistema de processamento de sinais, com uma estrutura particularmente genial: ele gera descargas de neurotransmissores no cérebro, as quais energizam o organismo que se aproxima de algo biologicamente valioso e dá descargas de sentido oposto, quando ele se afasta. Com isso, coisas muito diferentes podem ser avaliadas e mesmo comparadas, através destes balanços químicos, muito antes de surgirem os pensamentos.

Este sistema de produção de inclinações e afastamentos, que mexe com a energia do organismo e serve de comparador universal, é muitas vezes chamado de sistema de recompensas, ainda que o nome não faça jus ao seu papel na natureza, o qual incorpora as tomadas de decisão, como assinalado acima.

Ele teve um salto de sofisticação com roedores e mamíferos, que conseguem estabelecer relações indiretas com recompensas, isto é, entendem que algumas coisas que não tem valor próprio são relevantes por servirem de prenúncio a outras, efetivamente valiosas para eles. Esta mesma sofisticação permitiu relações com recompensas simuladas, como se dá no ato de brincar – adaptação de grande importância evolucionária, presente em roedores, mamíferos e outros – que têm como função principal a simulação de comportamentos fundamentais à vida adulta.

Por serem quase sempre serem sociais, brincadeiras costumam envolver feedbacks, os quais bancam reações de adultos, de maneira atenuada. Sem estes feedbacks, a brincadeira morre rapidamente, refletindo o fato de que as reações funcionam como fortes recompensas simuladas, mapeando-se em realidades práticas muito distantes, nesta grande adaptação do aprendizado.

Outro exemplo interessante é dado pelas recompensas simbólicas, como olhares de aprovação, sorrisos e afins, que recebemos de bom grado de estranhos, mesmo que acreditemos que nunca mais os veremos pela frente. Estes sinais igualmente bebem nas águas do aprendizado, conforme indicam-nos que o comportamento gerador da reação funciona bem, devendo ser usado em situações futuras, de mais alta relevância. Este princípio alia-se a crenças, valores, exemplos e outros fatores de formação duradoura, na determinação do repertório de estilos comportamentais de cada um, potencializando nossas chances de sucesso, em situações de incerteza.

É isso o que explica porque sentimos aquela disponibilidade aumentada para interagir – leia-se testar algumas reações – quando estamos em um país que ainda não conhecemos. É também o mesmo princípio que torna o impulso originário para a produção de conteúdo para estranhos atraente.

Esta categoria nova de comportamentos não é um tipo de brincadeira, nem tão pouco reflexo de certo impulso que se esgota no desejo de ser amado; ela é uma manifestação que bebe nos princípios que levaram à seleção do brincar, à disposição para gastar energia com comportamentos cuja única finalidade é o teste de sua capacidade de angariar aprovações e outras formas ancestrais de virtualização de recompensas.

Esta forma de produção recria, em uma escala pequena e compreensível, a lógica que rege a adaptabilidade ao mundo prático. É isso o que explica porque pré-adolescentes e adolescentes são tão suscetíveis às reações: eles estão em uma fase em que o abandono da fase do simulacro aproxima-se. E entender errado como o mundo funciona pode ter consequências drásticas.

Finalmente, com diferentes graus de discernimento, assumimos que sequer precisamos testar hipóteses para saber o que funciona e o que não funciona, bastando observar o resultado dos testes dos outros. Isso explica porque crianças e adolescentes tendem a avaliar fotos do Instagram com mais Likes como mais legais e a ativar áreas de processamento de risco no cérebro, quando as fotos mais curtidas reproduzem situações de risco. Não se trata de estupidez, mas de adaptabilidade gerando efeitos contextualmente bizarros.

Assim se revela o impulso original para a busca de Likes, sobre o qual uma enorme estrutura de validação social se ergue, gerando uma realidade aparente bem diferente, mas que ainda assim carrega este DNA.

IV. Algumas considerações para fechar

Neste ensaio consideramos os dois lados da moeda dos sistemas de votação digitais, como Likes e estrelas: o de quem vota e o de quem produz alguma coisa passível de votação. A necessidade de jogar luz sobre esta questão advém do fato de que, em seus primórdios, nenhuma das duas ações tinha potencial de gerar vantagens relevantes àquele que age, o que em geral é um indicativo de que não irão para frente.

A ideia desenvolvida para explicar o porquê do contrário pressupõe que refletem aspectos inerentes aos processos evolucionários que moldaram nossos cérebros, os quais vão muito além do sentido padrão de vantagens relevantes ou “racionalidade”, que usamos de régua para avaliar aquilo que fazemos e, especialmente, aquilo que os outros fazem.

Existe uma longa linha de estudos sobre comportamentos e decisões que se desviam da racionalidade, conhecida como área das heurísticas e vieses. O interessante desses comportamentos em questão é que tão pouco se reduzem ao padrão que se popularizou neste campo. A Web 2.0, afinal, abriu as portas para novas heurísticas.

Um ponto que não podemos ignorar é que o comportamento de produzir conteúdos para os outros fruírem ganhou tração antes mesmo da inclusão dos sistemas de votação. Aliás, como assinalei, estes últimos foram implementados para resolver o desafio de curadoria que a exuberância espontânea criou. Uma das razões para tanto é que este processo de simulação do mundo não ganha sentido apenas pelo fechamento do ciclo, através de feedbacks, ele existe em todas as partes do processo. É isso o que explica porque muitas pessoas escrevem para si mesmas.

No campo do aprendizado de máquina, separamos duas formas essenciais de aprendizado: o supervisionado e o não supervisionado. O primeiro é este que se encontra nos algoritmos de recomendação, os quais, através de regressões logísticas e técnicas aparentadas, procuram reduzir a desaprovação daquilo que será exibido, a partir de sinais anteriores. O segundo tipo é o que está em classificadores de imagens e outros mais. Eles não se pautam por um fluxo de sinais, capaz de distinguir o certo do errado, mas procuram associar aquilo que entendem ter propriedades comuns. Nas etapas que não contam com feedbacks, o que fazemos é associar, de maneira não supervisionada, aquilo que executamos a aprendizados formados sobre o que tende a dar certo e errado. O princípio é ligeiramente diferente, do ponto de vista do aprendizado, mas semelhante do ponto de vista da tendência mais ancestral e profunda que, justamente, acredito ser pertinente para explicar essa dinâmica toda.

Outro ponto que não podemos deixar de lado é que este modelo funciona para explicar como esta dinâmica hegemônica para em pé. Novos princípios, igualmente importantes, manifestam-se quando a estrutura estilística é montada e uma base de seguidores passa a existir. É neste segundo contexto que as alteração dos sistemas de votação do Instagram e outras redes pode ser compreendido, conforme as boas análises já publicadas no UOL e Folha de São Paulo. No próximo ensaio, vamos mergulhar nas dinâmicas neuroeconômicas que passam a existir na maturidade destes relacionamentos. Até lá.

]]>
0
CBDC: chance de revolução financeira virando a esquina http://visoesdofuturo.blogosfera.uol.com.br/2019/07/16/cbdc-traz-chance-de-revolucao-economica-virando-a-esquina/ http://visoesdofuturo.blogosfera.uol.com.br/2019/07/16/cbdc-traz-chance-de-revolucao-economica-virando-a-esquina/#respond Tue, 16 Jul 2019 19:54:52 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=125 Resumo: O dinheiro vem desaparecendo em sua forma impressa e como metal, o que se chama de tendência cashless —liderada por bancos comerciais e bandeiras, com o apoio dos Bancos Centrais (BCs), em diversos países. Paralelamente, muitos BCs vem desenvolvendo projetos de Blockchain para melhorar o ecossistema bancário como um todo. Neste contexto, o lançamento recente da criptomoeda do Facebook fez soar um alarme entre aqueles, que interpretaram a iniciativa do gigante tecnológico como um ataque à hegemonia monetária do Estado, predando a já delicada evolução da tendência cashless. Isto trouxe mudanças de estratégias em relação ao Blockchain, fortalecendo a tendência de emissão de criptomoedas estatais, chamadas CBDCs (Central Bank Digital Currencies), para reforçar o papel da autoridade monetária nesta disputa. Conforme argumento, CBDCs alteram as funções centrais dos BCs e a relação de forças com bancos e bandeiras; neste sentido, podem ser revolucionárias. O único porém é que os desafios sociais e logísticos que introduzem precisam ser um a um solucionados para que a tal revolução não termine bem pior do que começou, o que não deve ser de antemão descartado.

Dinheiro como abstração de valor

Devidamente separadas do pescoço e limpas de seus componentes crânio-encefálicos, as cabeças eram cozidas em água quente, ganhando aspecto assustador. Assim como outros povos, os Jivaro da Amazônia adquiriram o hábito encolher e armazenar cabeças de inimigos, que eram usadas em rituais de feitiçaria e para intimidá-los. Parece que funcionava, tanto que ficaram conhecidos como os únicos a enxotarem os colonizadores espanhóis, ao longo dos séculos XVI e XVII, período em que seguiram residindo em cima de um dos maiores depósitos de ouro da América Latina, conforme destacou Michael Harner, no livro mais famoso sobre estes “caçadores de cabeças”, inspiradores de livros e filmes (para ler na íntegra: https://bit.ly/2JIpYVs).

Por razões óbvias, as cabeças foram se tornando cada vez mais estimadas entre eles e, conforme argumenta-se, passaram a servir ao pagamento de obrigações tribais (vide: https://econ.st/2LmWHD1). Na falta de maiores subsídios para conhecer como de fato funcionava esta dinâmica econômica, sinto-me liberado para imaginar a aflição de alguns nativos, precisando de cabeças humanas cozidas para sair da inadimplência. Como é difícil equacionar um sistema econômico sem o conceito de moeda!

A mais elementar função do dinheiro é diminuir o desacoplamento de interesses e posses, nos processos de transferência de valor. Estes podem ser mais horizontais ou mais verticais; mais espontâneos, como na satisfação de desejos materiais, ou mais forçados, como no caso de tributos e da aquisição de bens essenciais à sobrevivência.

Em contraste com esta, a mais sofisticada função do dinheiro é servir de eixo à estruturação de uma lógica de longo prazo, que gira em torno de abstrações crescentes, com efeitos práticos severos. Aqui entram o planejamento e dimensões que questionam a imutabilidade do valor, como a inflação.

O dinheiro, através de pontos de vista de longo prazo, é chamado de reserva de valor. A necessidade de lidar com esta faceta empurra para cima a barra cognitiva. Na minha hipótese, contribui para o efeito Flynn, que é o aumento progressivo do QI que ocorre nas sociedades mais industrializadas, desde ao menos o fim do século XIX (para uma discussão: https://bit.ly/2LOMzTb). Em paralelo, acrescenta um item às consequências indiretas da miséria, conforme priva os jovens excluídos de noções críticas para que não retroajam, uma vez que tenham conseguido superá-la.

Por fim, o dinheiro é um veículo para o poder, que define parte importante da experiência da vida em sociedade, não apenas em termos absolutos, mas também relativos, através de juízos e percepções sobre justiça e equidade.

Em todos estes casos – e independentemente da tônica – o Estado terá posição de destaque, por ser único ente capaz de imprimir dinheiro – pelo menos até o surgimento das criptomoedas. Eis aí o tamanho da encrenca que geram.

 

A máquina mais importante do mundo já foi a gráfica, hoje é o computador

A capacidade do dinheiro satisfazer seu papel tem muito a ver com a atuação dos Bancos Centrais (BCs), responsáveis pela política monetária (dimensão macroeconômica) e relacionamento com os outros bancos (dimensão microeconômica). A política monetária serve, entre outras coisas, para manter a estabilidade de preços. Quando a quantidade de coisas compráveis aumenta, falta dinheiro para adquiri-las, o que gera um tipo de desequilíbrio; quando a quantidade de coisas disponíveis reduz-se, há um excedente de dinheiro, gerando um desequilíbrio de ordem inversa. Ambas as situações tendem a levar o BC a agir para otimizar a relação entre bens e dinheiro, estimulando ou retraindo a economia. Há diversas teorias sobre como isto deve se dar, as quais são pratos cheios para debates, mas não nos interessam agora.

Consideremos, apenas para efeitos ilustrativos, que uma delas é baseada na taxa de juros que o governo cobra sobre os títulos públicos. Quando estas taxas são elevadas, os bancos comerciais são estimulados a comprá-los, o que reduz o apetite para emprestar ao consumidor, levando a um aumento dos juros no varejo (empréstimos, cartões, cheque especial), que retrai o consumo. No mesmo espírito, o governo pode reduzir os juros pagos por estes títulos, de modo a direcionar o apetite dos bancos para outras atividades, aumentando a quantidade de dinheiro na economia; BC pode ainda fazer operações de compra ou venda de títulos, as quais são conhecidas como operações de mercado aberto. Em todos estes casos, o que de fato irá acontecer é o disparo requisições computacionais para alterar valores em uma série de sistemas internos e as enviar para os outros bancos relacionados, que então deverão fazer o mesmo. Isso traduz a ideia de que os bancos relacionam-se através de um ecossistema computacional com inúmeros sistemas, que vão do BC às empresas e consumidores.

Este ecossistema vive constantemente pressionado por três desafios fundamentais: tempo até a finalização de uma transação, custo de manutenção e transparência.

O primeiro reflete o fato de que as operações interbancárias precisam de um tempinho para serem consolidadas. A consequência manifesta-se na forma de perda de eficiência, alheia à política econômica em curso. Isto se aplica mesmo a países com sistemas de compensação eficientes, como o Brasil.

O segundo fator é bem mais crítico. Os diferentes ambientes computacionais em que os registros são salvos para processamento interno funcionam como espaços privados. O resultado é que BC e outros bancos possuem um sem fim de bases e subsistemas de consulta e processamento. Uma visão panorâmica disso tudo revela que os mesmos dados são consultados milhares de vezes por centenas de softwares, que muitas vezes replicam tratamentos, onerando o ecossistema como um todo.

Verificar se nenhuma fraude ou erro está ocorrendo é outro gargalo importante. No exemplo brasileiro, o lado menos problemático da equação (BC) conta com diversos sistemas de gestão que precisam gerir o bom funcionamento do guarda-chuva da Câmara Interbancária de Pagamento (CIP). Exemplos incluem Sitraf, Siloc, SLC, SCC, CTC, C3, PCR, SELTEC, PCPS, STD e SERAP. Para cada um destes, uma falha pode ter efeitos enormes sobre todo a vida bancária do país. No lado mais problemático, os outros bancos precisam agir com transparência e rigor absolutos. Assegurar isso custa muito, o que acaba sendo transferido aos usuários finais.

Essa situação vem levando uma série de BCs ao redor do mundo a considerarem a migração de parte relevante do ecossistema bancário para o Blockchain (DLT, mais especificamente), que é uma tecnologia de criação e manutenção de registros distribuídos, onde as transações são finalizadas mais rapidamente, de forma irreversível, garantindo mais transparência e interoperabilidade entre os sistemas (para conhecer, veja: https://bit.ly/31YsE9W).

Um exemplo é dado pelo Projeto Stella, fruto de uma parceria do BC Europeu com o Banco do Japão para trazer as vantagens acima aos processos de aquisição de títulos e outras transações interbancárias (para conhecer: https://bit.ly/30w1PbB). Outros BCs com desenvolvimentos análogos em curso incluem o do Canadá, Inglaterra e a autoridade monetária de Singapura. O BC do Brasil também está nessa onda, assim como o FED e o Banco Popular da China.

Esse otimismo com a tecnologia não é unânime. Conforme reportado pela revista The Banker (https://bit.ly/2Y94Sc6), o BC holandês implementou Blockchain (DLT) e chegou à conclusão de que, no momento, não traz grande vantagem para o seu sistema financeiro, exceto no que se refere às transações internacionais. Na Rússia, o projeto Masterchain, voltado à gestão interbancária de hipotecas, está sofrendo uma forte revisão, com o abandono da tecnologia desenvolvida localmente por outra, mais conhecida.

A adoção de Blockchain (DLT) pelos BCs ainda está começando. No cenário descrito, promete uma lógica de funcionamento otimizada para um setor relevante da economia de todos os países. Não se trata de uma revolução, mas tampouco de tendência que merece ser desprezada. Porém esta é apenas a ponta do iceberg, conforme revelado abaixo.

 

Papel, polui a economia, mas tem seu lado bom

Em 16 de fevereiro de 1659, Nicholas Vanacker fez um pagamento para Delboe. Ele assinou um pedaço de papel no valor de 400 libras (cerca de 42.000 libras, em valores atuais), que deveria ser sacado num banco londrino. É o mais antigo cheque preservado e ilustra bem a longevidade dos recursos alternativos ao papel-moeda. Trezentos e cinquenta nove anos, cinco meses e treze dias depois, o Reino Unido baniu os cheques de seu sistema financeiro. De acordo com o executivo chefe do conselho gestor do sistema de pagamentos do Reino Unido, Paul Smee, “há muitos outros meios mais eficientes de se fazer pagamentos no século 21, do que usando papel” (https://reut.rs/2XWnyvV).

Em linha com o que diz o executivo, outro pedaço de papel que vem se tornando raro nas economias mais avançadas é a cédula. A tendência para substitui-la começou a ganhar força na metade dos anos 1980 com a proliferação dos pontos de venda (PoS), onde os clientes pagam suas compras passando cartões, e se intensificou a partir da década seguinte, com as transações online. Hoje em dia, a completa inutilização das cédulas está prestes a se tornar realidade na Suécia e outros.

Talvez você não tenha percebido, mas um dos sinais claros de que esta mudança também está em andamento no Brasil é a proliferação dos Bancos Digitais que, evidentemente, não possuem caixas automáticos ou agências que permitam saques ou depósitos. Este é um dos principais aspectos que os tornam competitivos e que explicam porque não se tornaram populares anos atrás, uma vez que a tecnologia que usam já existia.

Na Suécia, partes da Alemanha e de diversos outros países com economias avançadas, o desaparecimento quase total das agências bancarias é uma realidade, que vem custos adicionais aos comerciantes que insistem em aceitar cédulas. Na primeira, por exemplo, mais da metade dos bancos não aceitam depósitos em dinheiro e, aqueles que aceitam, cobram até R$ 100,00 por cada envelope de cédulas depositado. A mesma coisa se aplica à aquisição de moedas para troco. Em contrapartida, o BC, juntou-se aos principais bancos suecos no lançamento do Swish, um sistema de pagamento móvel, que é aceito em praticamente todos os estabelecimentos do país (você pode encontrá-lo aqui: https://bit.ly/1MQku3D). Os vizinhos Noruega e Dinamarca têm aplicativos análogos (em termos técnicos: carteiras digitais, na linha do Google Wallet ou Apple Pay, só que gerenciadas por bancos).

Passos acelerados estão sendo dados em direção à própria eliminação das tarjetas e menor uso de celulares, por meio da biometria. Na mesma Suécia, o implante de chips para a validação de transações não é mais novidade. E não para de crescer. Nos Estados Unidos, os supermercados sem caixas da Amazon dão uma ideia dos desafios adicionais que a tendência traz ao mercado de trabalho.

Fig. I. Um resumo ilustrado da evolução do dinheiro, criado com exclusividade para este ensaio.

 

Fig II. Continuação do resumo ilustrado da evolução do dinheiro, criado com exclusividade para este ensaio.

A tendência cashless tem defensores de peso, ao redor do mundo; em comum destacam que sociedades sem papel moeda (chamadas de cashless) diminuem as chances do comércio ilícito, tráfico de drogas e sonegação. Kenneth Rogoff (Harvard, ex-FMI) é um deles, argumentando que notas de maior valor devem ser eliminadas e todas as transações mais elevadas devem ocorrer eletronicamente. Em paralelo, há a defesa mais subjetiva, que gira em torno da facilidade trazida pelos pagamentos eletrônicos e a que destaca os cortes de custos deste sistema, tanto no que se refere à abolição da necessidade de fabricar moedas e cédulas, quanto no que se refere ao seu manejo e estocagem desse material pelos bancos privados.

A facilidade para fazer compras nestes novos supermercados ou numa lojinha do interior da Suécia, usando biometria, não pode ser negada. Ainda assim, não seria correto dizer que a tendência cashless, no formato sugerido, é consensual.

Em primeiro lugar, há de fato corte de custos para os bancos privados, mas isso não necessariamente é repassado aos consumidores. A tendência reforça o uso do cartão de crédito e subadquirentes (Paypal e outros), que cobram uma taxa sobre todas as transações (MDR). Em segundo lugar, esta lógica aumenta muito o poder de bancos e bandeiras sobre a vida das pessoas, ao mesmo tempo em que exclui ainda mais aqueles que não têm dinheiro para manterem um celular com internet. Outra fator a se considerar é que os sistemas computacionais destas grandes entidades financeiras trazem riscos às economias locais (points of failure). Se há uma enchente ou terremoto e os aplicativos de pagamento saem do ar, a economia local colapsa.

Do ponto de vista da economia comportamental, vale lembrar que as pessoas agem de maneira menos racional quando não associam o dinheiro saindo do bolso às compras, especialmente se não tiveram uma educação econômica adequada.

Finalmente, coloca-se uma questão subjetiva, ligadas a valores profundos: a utilidade esperada de se abdicar da privacidade que as cédulas concedem para mitigar a sonegação e ações ilícitas é positiva? Eis uma questão que cada um deve avaliar por si só, enquanto o debate amadurece à sombra da expansão da tendência cashless.

 

CBDC: uma revolução dobrando a esquina?

Ao passo que a tendência cashless é fundamentalmente puxada pelas instituições financeiras tradicionais (sobretudo bancos e bandeiras); numa esfera mais restrita, ela é indiretamente impulsionada pelos entusiastas de criptomoedas, como o Bitcoin e o Ethereum, que não existem no mundo físico. Aliás, este talvez seja um dos únicos pontos de vista compartilhados por ambos.

O anúncio do Libra, criptomoeda do Facebook (para saber mais: https://bit.ly/31YsE9W), trouxe um mal-estar generalizado à criptoesfera, ao mesmo tempo em que alarmou BCs ao redor do mundo. Um dos principais pontos de atenção é sua proposta de usar uma reserva de valor valendo bilhões para não flutuar.

O FED (EUA) vê no lançamento a chance das empresas de tecnologia assumirem importância excessiva na economia americana, criando desequilíbrios de força e zonas de instabilidade monetária. O país é historicamente avesso à ampliação do papel dos bancos em sentido ao comércio e vice e versa, o que reforça a visão negativa do projeto. Na ponta oposta, o Banco Popular da China ressalta que a estabilidade desta nova criptomoeda deverá ser determinada por reservas em Dólar e títulos do tesouro americano, o que significa que as compras feitas a partir da China irão fortalecer a economia americana, independentemente das estratégias comerciais do país. Na Europa, o ruído possui aspectos de ambos os argumentos, com o adendo de que a Fundação Libra, controladora da nova criptomoeda, estará sediada na Suíça, a qual se blindou de certas regras de compliance que valem nos países que a cercam.

Blockchains são tradicionalmente associados a criptomoedas. Porém, conforme vimos acima, as iniciativas mais comuns dos BCs até este momento envolvem o uso da tecnologia para aumentar a eficiência dos processos interbancários, sem fazer uso de tokens. O Facebook gerou uma reviravolta nesta dinâmica, levando ao anúncio de várias criptomoedas nacionais e o reforço do interesse naquelas em desenvolvimento ou já desenvolvidas, como e-krona, da Suécia.

Estas criptomoedas são chamadas de CBDCs (Central Bank Digital Currencies). Atualmente, há 19 países reconhecidamente desenvolvendo-as. Para conhecer os aspectos gerais destas iniciativas, recomendo este artigo: https://bit.ly/2JzkEF5.

Há duas lógicas de utilização das CBDCs: com ou sem pontos de contato direto entre o BC e os consumidores; a primeira foca o atacado financeiro, a segunda, o varejo. Aquela preconiza que o dinheiro digital chegue primeiro aos bancos comuns, que permanecem como os únicos intermediários do relacionamento com empresas e consumidores. Neste caso, a mudança não é abrupta para muitos consumidores, uma vez que o dinheiro físico já não lhes é muito relevante.

O elemento novo dos CBDCs de atacado é, principalmente, a capacidade de otimizar os processos de transmissão e recepção de valores vindos de fora do país, os quais seguem por arranjos bancários lentos e caros, como o Swift (https://bit.ly/1ZOhilb). Muitos países sob embargo dos Estados Unidos estão com projetos de CBDC para que consigam transacionar globalmente sem Swift e dólares.

O segundo tipo é muito mais impactante. Ao permitir que qualquer um abra uma conta corrente com o BC, uma forte concorrência com os bancos privados é instaurada. E assim chegamos à derradeira questão: isto pode servir de contramedida ao predomínio dos grandes conglomerados financeiros e tecnológicos, nos sistemas financeiros cashless, ao mesmo tempo em que uma série de novos desafios emergem.

O principal dele é o fato de que este tipo de CBDC permite ao Estado exercer enorme poder de vigilância sobre a população, abrindo flancos para um sem fim de ações políticas contra indivíduos ou grupos. Consideremos um exemplo: a China vem desenvolvendo o maior projeto de vigilância tecnológica do mundo. Este integra câmeras de rua, instituições financeiras e outras. Um dos outputs do sistema de vigilância é um escore, o qual impacta aspectos distintos da vida prática das pessoas, incluindo o crédito bancário. Caso realmente se torne cashless e force o uso de sua criptomoeda estatal, o governo chinês poderá controlar o tipo de estabelecimento ou os produtos que dissidentes poderão comprar, sufocando-os silenciosamente. Também terá total conhecimento, em tempo real, das tendências de consumo e transações realizadas por todos, o que deverá amplificar dramaticamente suas estratégias de controle baseadas em Big Data. A lógica de dar crédito por critérios políticos velados irá se tornar muito mais poderosa, podendo ser operada de dentro da carteira digital estatal. E muito mais. Nada garante que qualquer uma dessas coisas será feita, apenas que elas se tornarão viáveis.

Paralelamente, em países onde as liberdades individuais valem mais, é de se considerar que a privacidade que muitos tentam proteger do apetite das empresas deverá ser transferida ao Estado, o que não abole o incômodo de base. Do mais, não é difícil imaginar os imbróglios de gestão que os BCs que estão seguindo por essa via poderão enfrentar por diversos anos, até que tudo possa ser equacionado.

CBDCs de varejo podem trazer transformações profundas aos sistemas financeiros e à vida de cada um, com potenciais benefícios, nos casos em que as tendências cashless ultrapassaram o ponto de retorno. Isso não significa que sejam incontroversos e que possam ser implementados de maneira satisfatória, antes que os desafios aqui listados sejam, um a um, debatidos e resolvidos.

 

Confira abaixo o argumento construído neste ensaio, de maneira esquematizada:

 

]]>
0
Por que o bitcoin flutua e o libra promete não flutuar? http://visoesdofuturo.blogosfera.uol.com.br/2019/07/01/por-que-o-bitcoin-flutua-e-o-libra-promete-nao-flutuar/ http://visoesdofuturo.blogosfera.uol.com.br/2019/07/01/por-que-o-bitcoin-flutua-e-o-libra-promete-nao-flutuar/#respond Tue, 02 Jul 2019 01:05:58 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=103

Após o artigo em que testamos nova criptomoeda do Facebook, amigos economistas se interessaram pela mecânica de estabilização do libra, então me propus a responder à pergunta do título. Pelo que percebemos, moedas digitais não lastreadas trazem um mecanismo poderoso para acelerar a adoção

No dia 18 de junho deste ano, o Facebook liberou o White Paper e o código fonte de testes (a chamada Test Net) do libra, uma moeda digital parcialmente descentralizada, que deverá entrar no mercado em cerca de um ano. Em parceria com o Dr. Eduardo Oda e a ajuda da equipe de desenvolvedores de Blockchain do Rhizom e Grupo WeMind, que baixou e rodou diversos tipos de transação na Test Net, escrevi um ensaio para o UOL sobre a iniciativa. Recebi diversas mensagens de interlocutores ávidos por saberem mais sobre sua lógica de funcionamento. Neste contexto, surpreendi-me ao notar o interesse de alguns amigos economistas pela mecânica de estabilização do token, assunto que originalmente tomei como trivial.

Do ponto de vista mais superficial, realmente, é tudo muito simples: cada token disponibilizado no mercado será lastreado por 1 dólar (ou outra moeda/cesta de moeda) para que adquira paridade monetária, permanecendo estável. Bom, como esses professores de economia notaram, por caminhos distintos, o assunto não se encerra nisso; no mais, existem alternativas à estabilização pela manutenção de dinheiro em caixa (fiduciária) e uma discussão mais ampla sobre a flutuação das criptomoedas, que retornou à pauta nestes últimos dias, uma vez que o preço do bitcoin oscilou significativamente.

Pesquisei fontes de informação de maior reputação (artigos científicos publicados em revistas de impacto) e maior circulação (artigos em espaços respeitáveis, como este aqui) e não encontrei nada que desse conta do recado. Assim me propus a ajudar a preencher esta lacuna, por meio de dois ensaios: este, em que respondo à pergunta do título; e o seguinte, onde apresentarei mecanismos alternativos de estabilização de tokens, além de uma série de questões mais avançadas sobre o futuro das criptomoedas.

Dinheiro e lastro

A estabilização é assumida como a missão suprema de quem modela processos econômicos baseados em ativos digitais. Isso é de se entender: se o valor do token flutua, o mercado é desincentivado a utilizá-lo; afinal, comerciantes terão receio de que, no momento de reconversão para a moeda local, o montante recebido por suas mercadorias represente menos do que esperavam; ao passo que os compradores terão receio de estar pagando mais do que seria o caso, alguns dias para frente. Por esta razão, diz-se que a estabilidade é uma condição para a adoção massiva de tokens voltados à intermediação de pagamentos.

Muita gente trata este problema sob o ponto de vista de que o bitcoin e outras criptomoedas não estão lastreadas por reservas de valor, ao contrário do dólar, que é estável por ter essa base, a qual repassa para as moedas dos países que têm padrão-dólar. De acordo com o raciocínio, de maneira direta ou indireta, ouro e outros ativos inibem a possibilidade do dinheiro existente valer menos do que a reserva, criando um colchão de sustentação para a cotação. Se você ouvir algo nesta linha de alguém que passou os últimos cinquenta anos perdido em uma selva, pode acreditar: trata-se de uma visão bem fundamentada da realidade macroeconômica deixada para trás.

Com a Segunda Guerra Mundial caminhando para um fim, em julho de 1944, delegados de 44 países –Brasil incluso– encontraram-se para estabelecer os termos de um acordo financeiro previamente engavetado enquanto passeavam pelas belas montanhas de Bretton Woods, no estado de New Hampshire, EUA.

A premissa compartilhada por boa parte dos presentes era de que o mundo ocidental deveria encontrar maneiras de fortalecer a estabilidade econômica e o comércio internacional, a partir de práticas comuns, para reerguer a economia mundial, com foco na europeia. Ali surgiram o Fundo Monetário Internacional (FMI) e o Banco Mundial, que foram decisivos para a história do século XX e começo do XXI.

O termo principal do acordo foi o lastreio das moedas nacionais em dólar, que por sua vez deveria ser lastreado em ouro. Pela tabela definida, o grama de ouro valeria US$ 0,80.

O acordo só decolou de verdade em 1958, quando as moedas dos diferentes países tornaram-se efetivamente conversíveis, sob a supervisão do FMI, que monitorava esta relação de perto. Tal dinâmica foi fundamental para a universalização da moeda americana como reserva de valor ao redor do mundo, dando suporte à ideia de que os interesses do FMI alinham-se aos dos Estados Unidos.

Isso se explica porque, de um lado, a entrada de capital nos Estados Unidos tem um balanço positivo para o país (apesar de também trazer alguns problemas) e, de outro, porque países com reservas em dólar têm fortes razões para não quererem que este despenque, o que naturalmente ajuda os Estados Unidos a se manterem relevantes do ponto de vista econômico e político.

Não tardou para que ficasse claro que a manutenção da relação com reservas do minério dourado estavam com seus dias contados. Isto não decorreu do afã dos americanos de exercerem o direito de trocar punhados de cédulas por barrinhas de ouro, como às vezes se diz; na realidade, uma lei federal de 1961 proibiu os americanos de terem ouro em casa ou em qualquer outro lugar do mundo.

O que de fato teve efeito foi a forte demanda internacional pelo dólar, fazendo as impressoras da Casa da Moeda trabalharem até travar (essa é uma ideia figurada; na prática, a impressão de dinheiro em papel tende a ser uma péssima opção), assim tornando a paridade com as reservas em minério completamente inviável.

Em 1971, o presidente Nixon abandonou o tratado de Bretton Woods, cancelando o padrão-ouro para o dólar, o que naturalmente tornou-o sem efeito para todos os países que tinham padrão-dólar. Deste momento em diante, a ideia passou a ser que o dólar vale em função daquilo que ele pode comprar nos Estados Unidos; isto é, vale pelo que traduz da força da economia do país. O momento foi de popularização do trilema macroeconômico, do começo da década anterior, que diz que não é possível combinar câmbio fixo, livre movimentação de capital e política monetária independente.

Vale notar que, durante suas fases mais embrionárias, o real (primeiro como cruzeiro-real, depois como URV e real), viveu uma fase de câmbio fixo, cuja ideia era limitar o teto da inflação, endêmica até então. Essa foi seguida por uma fase semifixa que, desde 1999, passou a ser flutuante, não retornando aos moldes anteriores.

Assim se conclui que o lastro do bitcoin é exatamente o mesmo do dólar ou do real, não havendo qualquer sentido em se afirmar o contrário: todos valem pelo que podem comprar e nenhum tem qualquer tipo de reserva de valor servindo de colchão aos movimentos cambiais, já que o câmbio tende a ser flutuante. Portanto, não é rigorosamente correto dizer que o bitcoin flutua porque não tem lastro em uma reserva de valor, ao passo que o libra não flutuará porque estará lastreado em uma ou mais moedas nacionais, como vem sendo dito.

Estabilidade econômica e criptomoedas

As moedas dos países com melhores condições de renda são todas estáveis ou, tanto quanto possível, levemente inflacionadas. A razão para isso não está apenas na relevância da produção, mas na aplicação adequada de políticas monetárias, a partir das quais os governos intercedem na economia para que a oferta de dinheiro esteja bem conectada à demanda pelo mesmo.

O mecanismo mais utilizado é a taxa de juros dos títulos públicos federais. Em sua forma mais elementar, funciona assim: quando a demanda internacional por nossas exportações, produtividade, emprego e salários sobem (diz-se: a economia se aquece), a capacidade de consumo sobe junto, levando a um aumento nos preços, que torna cada real menos valioso –e eis a inflação, no caso, puxada pela demanda, o que não é o pior dos mundos, diga-se de passagem.

O governo então pode subir a taxa de juros que paga nos títulos públicos, que assim se tornam mais interessantes como reservas de valor. De um lado, dinheiro investido nos mesmos é sinônimo de dinheiro retirado de circulação; de outro, este movimento leva à subida dos juros nos bancos, o que tira mais dinheiro de circulação, conforme os empréstimos ficam mais salgados. Com isso, o preço das coisas cai. Já quando o consumo está muito baixo, o governo pode baixar os juros pagos pelos mesmos, desestimulando os bancos a adquiri-los, o que os estimula a emprestar a juros mais baixos, para dar vazão ao capital.

No caso do bitcoin, não é possível exercer uma política monetária. Porém, isso não significa que Satoshi Nakamoto, seu idealizador, não tenha pensado no assunto e injetado princípios macroeconômicos no código. Os principais são profundamente interconectados: a reserva de bitcoins é finita e a recompensa dos mineradores cai pela metade, cada vez que 210.000 blocos são minerados, o que ocorre a quatro anos, aproximadamente.

Para compreender o que isso significa é preciso ter em mente que as transações em bitcoin são armazenadas em tabelas ou “blocos”, que precisam ser validados por outras pessoas, conhecidas como mineradores, as quais ganham uma recompensa em bitcoins por fazê-lo. Apesar do fato de que é preciso pagar uma pequena taxa para realizar transações, a parte principal dessa recompensa não vem da conta de ninguém, mas é produzida a partir da execução de um algoritmo que fica no blockchain do bitcoin, que gera novos bitcoins, os quais são subtraídos da quantidade total a ser produzida, que é 21 milhões. Atualmente, cerca de 18 milhões de bitcoins já foram gerados e uma nova redução em recompensas surge no horizonte. O que este mecanismo faz é mimetizar o ouro, cuja finitude influencia o preço.

Uma das consequências deste raciocínio é que, enquanto reserva de valor, o bitcoin lembra menos uma moeda nacional e mais uma commodity. Outra é que o desenho econômico converge à potencial valorização, através de esgotamento da oferta. Esta valorização, contudo, não pode ser assumida como fato consumado: a criptomoeda vale conforme exista interesse de mercado por ela, tal como é o caso para qualquer moeda. Do outro lado, conforme o uso amplie-se, gerando maiores possibilidades para trocar os tokens por produtos e dólar, menor tende a ser a flutuação.

Este é um raciocínio fundamental para se entender a lógica econômica das criptomoedas. Qualquer unidade de troca financeira que ganhe ampla aplicação tenderá a flutuar muito menos do que se observa atualmente com o bitcoin e semelhantes –mesmo que não possa sofrer os ajustes finos de uma moeda nacional. Pelo mesmo raciocínio explica-se porque o Facebook avaliou que vale a pena imobilizar um enorme capital para estabilizar o libra de primeira: esta virtude emula o que entusiastas esperam que um dia aconteça com todas as criptomoedas de sucesso. No fim, a variável em questão é tempo.

Mas, afinal, por que o bitcoin flutua hoje em dia?

Moedas servem como meios de transação e reserva de valor. Para entender por que o bitcoin flutua é importante ter em mente que estas funcionalidades não são idênticas, ainda que sejam relacionadas. De maneira comum, a flutuação é um fenômeno da fase de adoção das criptomoedas, as quais podem ou não ganhar amplo mercado, superando esta fase. Ela surge porque tais carecem de políticas monetárias, em função de sua natureza distribuída, fator que mais as diferencia das moedas nacionais.

Do ponto de vista transacional, o bitcoin parece uma grande febre, mas sua adoção ainda não atingiu o ponto em que os tokens podem ser transacionados, de maneira rápida e 100% descomplicada, em uma ampla gama estabelecimentos e instituições financeiras. A consequência é a fragilidade de sua economia às mais variadas perturbações.

Imagine que você e um grupo de amigos criem um grupo de WhatsApp para quem é fã de abelhas mortas, onde então nasça um comércio de espécimes. Ao longo do tempo, é possível que alguns proponham trocar abelhas por outras coisas e, um pouco mais adiante, que as abelhas passem a servir para intermediar a aquisição dos mais variados bens. Neste contexto, a entrada ou saída de um ou dois membros pode ter efeito enorme na quantidade de coisas que podem ser adquiridas via “inseto-coin”. Retomando a ideia de que uma moeda vale pelo seu poder de compra, entende-se que flutuações na adoção impactam dramaticamente o potencial para intermediar transações, que é um dos fundamentos de toda moeda. Deste princípio segue que a principal força ditando a flutuação no valor das criptomoedas jovens –e todas são jovens– é o efeito de manada determinado pela percepção de vigor da rede. Quando as pessoas percebem que outros estão entrando, sentem confiança para seguir atrás e vice e versa; não o fazem porque são totalmente irracionais como se costuma dizer (mas tão pouco por representarem “jogadores racionais”, é claro) mas porque a magnitude da adoção é a própria medida do valor prático da criptomoeda, o que usam como sinal para suas decisões. Nesta esfera, a mídia entra com um poder muito grande, chancelando ou repelindo a hipótese da adoção ampla.

Do ponto de vista do seu papel como reserva de valor, o bitcoin flutua principalmente em função de ataques especulativos. Dado que o blockchain é público, é possível mapear as carteiras detentoras de tokens, apesar de não ser possível conhecer a real identidade de seus proprietários, sem investigações profissionais; o mapa destas carteiras revela que as dez maiores, conhecidas como baleias (mais de US$ 1 bilhão), são plenamente capazes de influenciar o preço do token, a partir de estratégias deletérias.

Uma das estratégias mais relevantes é conhecida como ciclo de enxague e repetição. Nesta, uma ou mais baleias ofertam tokens abaixo do preço de mercado, gerando a percepção generalizada de que o mesmo está caindo; isto leva pânico aos pequenos investidores, que interpretam o movimento como possível contração de longo prazo, vendendo mais barato ainda para as mesmas baleias, que lucram imediatamente, ao mesmo tempo em que encontram uma oportunidade para crescer ainda mais por meio da aquisição de ativos subvalorizados. A grande expectativa do mercado pela entrada de investidores institucionais decorre do fato de que, se isso ocorrer, eles é que serão as verdadeiras baleias, o que mitigará o efeito dos ataques especulativos.

Em uma terceira esfera, a flutuação do bitcoin decorre da crença em sua tecnologia. Cada vez que há um hacking ou qualquer outro tipo de golpe, a crença na expansão da função de uso e na capacidade do token servir de reserva de valor é colocada em xeque, o que impacta seu valor de mercado. Finalmente, há fenômenos endógenos; por exemplo, muito se divulgou que o último estirão do bitcoin foi derivado da empolgação geral com o mercado, trazida pelo libra; porém, o mercado revela que este movimento estava sendo preparado pela preocupação com a próxima correção na premiação dos mineradores, a qual cairá pela metade em cerca de dez meses, de 12.5 para 6.25 bitcoins por bloco minerado. Este efeito endógeno não deve ser descartado.

E o libra?

Considere que você quer estabilizar o valor de suas abelhas mortas, no grupo criado com seus amigos. Para isso, vocês podem combinar que colocarão no banco R$ 1 para cada abelha colocada em circulação e que criarão uma regra por meio da qual quem quiser sair do grupo poderá entregar suas abelhas para a Banca, por R$ 1 menos alguns centavos, que custearão a transação de saída. Este princípio naturalmente fará com que o valor do token (inseto-coin) flutue menos, na linha do que procuraram fazer as economias que se dolarizaram no pós-guerra. Essa é a ideia básica do libra que, provavelmente, deverá ter caixas para a conversão dos libras em reais, dólares e outras moedas nacionais.

Porém, essa não é a história completa. As criptomoedas são transacionadas em bolsas próprias (exchanges), onde diversas outras opções estão disponíveis. Consideremos que um investidor tenha 1 milhão de libras (ao valor inicial de US$ 1 milhão) e que um ataque especulativo leve a cotação em dólares do bitcoin a despencar; nestas condições, será natural que os investidores migrem para o libra, impulsionando sua cotação no câmbio. É a mesma coisa que ocorre com ingressos para eventos concorridos, que custam mais caro fora da bilheteria, conforme a oferta oficial torna-se inferior à demanda. Esta hipotética subida tenderá a promover uma fuga de capital do ecossistema do Facebook e parceiros (como a carteira digital Calibra) para casas de câmbio, o que por sua vez obrigará estas empresas a imobilizar mais capital nos bancos se quiserem manter a paridade que estabiliza a moeda.

Porém, eis o aspecto notável, o movimento de conversão das outras criptomoedas em libras, se de fato ocorrer, significará expansão na curva de adoção do libra que, justamente, precisará de menor estabilização fiduciária, já que será possível fazer uma gama maior de transações com ele. O caminho natural então será reduzir a porcentagem do lastro da reserva de valor. Ou seja, em vez de manter em reserva dinheiro correspondente a 100% dos tokens disponibilizados, a Fundação Libra poderá cortar a reserva pela metade e assim por diante até abrir mão do lastro. Uma contrapartida desse possível movimento é que a nova moeda passará a operar de maneira crescentemente alavancada, quebrando se algum evento improvável levar a uma rápida fuga de capital, como diz Nassin Taleb, e como, de fato, acontece muitas vezes com os bancos.

Na linha inversa, os tokens libra disponibilizados no mercado de câmbio podem perder tração, por exemplo, pela publicação de uma norma negativa para a Fundação Libra. Nestas condições, os investidores tenderão a vender abaixo do valor de referência; afinal, não faz sentido inserir US$ 1 milhão em tokens na Calibra para gastar nas lojas que aceitam a moeda.

Na medida em que isso ocorra, as pessoas interessadas em usar o sistema do Facebook e seus parceiros irão se encontrar em uma situação em que tanto poderão comprar os tokens por US$ 1 cada, diretamente na Calibra, quanto poderão comprá-los por 80 ou 90 centavos de vendedores não oficiais (casas de câmbio). Este cenário criará um desincentivo à adoção massiva, já que as pessoas estarão pouco motivadas a adquirir tokens da Fundação, que assim não encontrará motivo para gerá-los, mimetizando o que ocorre em economias recessivas.

A consequência prática pode ser a falência do libra, que precisará oferecer tokens abaixo do valor de compra nos mercados que o aceitam, para estimular as pessoas a comprá-los na Calibra, mais ou menos como fazem essas startups que pagam para que as pessoas consumam seus produtos, na esperança de que ganhem tração com isso.

Finalmente, as próprias moedas nacionais que servirão de reserva de valor podem sofrer variações significativas no mercado internacional de câmbio (conhecido como Forex), com perdas ou ganhos bilionários, que precisarão trafegar na cadeia de valor do Libra.

Considerações finais

Neste ensaio argumento que moedas digitais lastreadas e não lastreadas em reservas fiduciárias convergem no longo prazo e que estas últimas trazem como principal vantagem um mecanismo poderoso para acelerar a adoção, que nem por isso blinda movimentos especulativos que podem chegar ao consumidor.

Do ponto de vista das razões para a flutuação das criptomoedas em fase de adoção, como é o caso para o bitcoin, proponho que discriminemos variações cambiais originadas em efeitos de rede, conectadas ao seu papel transacional; variações cambiais que afetam primariamente seu papel de reserva de valor, como é o caso para os ataques especulativos das chamadas baleias; variações relacionadas à confiança geral na tecnologia; e variações endógenas ao protocolo, como é o caso para a taxa de recompensa paga aos chamados mineradores.

Nada disso deve ser tomado como sinal de que o preço futuro do bitcoin viva sob incerteza absoluta. A bolsa de opções de Chicago, a maior do mundo na categoria, criou um instrumento para inferir a volatilidade futura de ações (CBO VIX), que foi adaptado ao mercado de moedas (Forex). O mercado do bitcoin e outras criptomoedas ainda carece de um instrumento do tipo. Por outro lado, seguindo aquilo que se vê em outros domínios, mercados de futuros para bitcoin entraram em operação para que os investidores possam apostar em cotações; por exemplo, Maria fecha com Luísa o direito de adquirir dois bitcoins por US$ 10 mil cada, em dezembro de 2019. Se a cotação estiver acima a ocasião, ganhará dinheiro; se estiver abaixo, perderá.

Mercados de futuros permitem-nos saber as cotações futuras nas quais os especialistas estão verdadeiramente apostando, reduzindo impactos da volatilidade.

No próximo ensaio apresentarei alternativas a estes dois modelos de tokens aqui descritos, levando a discussão sobre estabilização e adoção a um novo patamar.

Até lá.

Pós-escrito: uma questão de nomenclatura

Neste texto, optei por usar a seguintes notações:

Libra no masculino, dado que é o token chamado libra.

O bitcoin, o libra, o ehtereum, o dólar e o real: no masculino, para os projetos de criptomoeda, os tokens e o dinheiro em uso.

]]>
0
A arte do engajamento cerebral http://visoesdofuturo.blogosfera.uol.com.br/2019/06/17/a-arte-do-engajamento-cerebral/ http://visoesdofuturo.blogosfera.uol.com.br/2019/06/17/a-arte-do-engajamento-cerebral/#respond Mon, 17 Jun 2019 13:37:55 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=93

Pessoa passa em frente à obra Video Wave (Inhotim, 2015).

O paradigma motivacional

Em meu último ensaio procurei traçar um panorama dos desafios enfrentados pela new media art, que é o ramo da arte contemporânea que usa tecnologias digitais como matéria criativa e inspiracional. De acordo com o argumento, um dos maiores gargalos é engajar as pessoas na fruição artística. Este é comum a toda arte de vanguarda, mas se acentua no mundo da arte digital, na medida em que as obras competem categoricamente com as telas de bolso que estamos todos acostumados a vislumbrar a cada cinco minutos. O baixo engajamento não apenas diminui o tempo de apreciação ininterrupta, como reduz a sensibilidade e disposição para se conectar a outras pessoas, que possui papel crítico em muitas instalações interativas que tomam a tecnologia como substrato, bem como na função social dos espaços expositivos. O presente ensaio procura jogar um pouco de luz sobre a natureza do problema e conhecer uma modalidade artístico-tecnológica concebida para eliminar a falta de engajamento subjetivo e social.

Entre as décadas de 1940 e 1970, diversas teorias motivacionais surgiram, em consonância com o avanço das modelagens biológicas e cognitivas do comportamento humano. Uma das mais famosas é a hierarquia de necessidades de Abraham Maslow, cuja representação gráfica é uma pirâmide colorida.

O psicólogo americano acreditava que a motivação emerge da vida usufruída em sua plenitude, a qual realiza seus desígnios conforme nossas demandas essenciais são satisfeitas, sequencialmente, das mais básicas e biológicas até as mais sofisticadas e mentais; isto é, do plano em que se encontram alimento e sono até o plano em que se dá a acomodação da realidade vivida às expectativas. Com essa tese, ele indiretamente responde à premissa freudiana de que o comportamento é levado à frente por uma grande diretriz motivacional, a libido, cujo encontro com a matéria fundamentalmente se converte em força para criar ou destruir.

O modelo de Maslow ganhou terreno por seu despojamento, a despeito do fato de que a linearidade sequencial das necessidades supostamente encaixáveis em degraus isoláveis de uma pirâmide ser francamente incompatível com a realidade mental das aspirações relatadas pelas pessoas, sempre dadas a paralelismos, sobreposições e rebatimentos em múltiplos domínios de manifestação. Maslow, enfim, contrapôs ao cardápio de desafios epistêmicos para alimentar a alma, o Big Mac da psicologia. Vendeu um monte.

Uma das áreas em que abriu filial foi a dos estudos de recepção de mídia, onde a “Uses and gratification theory” (UGT) emergiu como a mais popular teoria para explicar o que as pessoas aspiram, quando se inclinam ao consumo de algum produto cultural, especialmente filmes, programas televisivos e música. A UGT começou a tomar corpo no final da década de 1950, quando Elihu Katz e outros adotaram a máxima de que as opções de consumo cultural – sobretudo as midiáticas – tinham se generalizado na sociedade americana e europeia e isso havia elevado dramaticamente o protagonismo decisório dos consumidores. Vale ter em mente que, até aquele momento, o rádio e a televisão mantinham relações de grande assimetria em relação ao público, que era representado como amplamente passivo, na linha dos discursos mais convencionais sobre manipulação midiática, os quais partem de um modelo de consumidor que lembra Homer Simpson sendo entupido de donuts no inferno, sem considerar que isso é uma punição.

Assumindo o ponto de vista de quem dá poder instrumental ao controle remoto, Elihu Katz, seu parceiro Jay Blumler e Michael Gurevitch propuseram que as pessoas são levadas a consumir mídia por uma de cinco razões:

  • Aquisição de informação;
  • Identificação com elementos midiáticos;
  • Diversão;
  • Fortalecimento da vida social;
  • Fuga do estresse cotidiano.

Na linha de Maslow, a ideia é que as intenções que levam as pessoas ao consumo de mídia podem ser referenciadas, uma a uma, a estes tijolinhos aspiracionais (acesse aqui o paper seminal da dupla). No meu ponto de vista, o mesmo princípio (com as mesmas ressalvas) pode ser adaptado às razões pelas quais as pessoas frequentam exibições de arte, conforme abaixo:

  • Instrumentalmente, para adquirir cultura;
  • Para participar de uma cena sofisticada, que engrandece socialmente;
  • Para ter prazer estético e conceitual, a partir da fruição artística;
  • Pelo fato destes serem espaços convenientes para encontros e passeios;
  • Com a intenção de se distrair, usando a arte como válvula de escape.

A despeito de estar longe de ser exaustiva, esta segmentação é oportuna pois nos permite recortar o próprio problema do engajamento, que não é igual sob as diferentes intenções. Do mais, permite a aplicação de princípios típicos do marketing, que certamente farão curadores e artistas torcerem o nariz, mas que podem melhorar consideravelmente a aderência de mostras, bienais e afins. Para chegar lá, acredito que seja importante agregar mais um conceito, de fácil entendimento: direção do vetor motivacional.

Quando uma pessoa presta algum serviço para outra por dinheiro, assumimos implicitamente que o serviço é apenas um intermediário a uma finalidade, que é o dinheiro; alternativamente, se ela presta o serviço sem ganhar nada, assumimos que o objetivo é a ação em si. No primeiro caso, o vetor intencional possui direcionamento extrínseco à ação central em curso, ao passo que no segundo ele é intrínseco. A distinção extrínseco/intrínseco é importante porque fala sobre aquilo que é recompensador para o público, o que por sua vez é essencial na conversão da intenção em comportamento por meio da motivação. A ideia é que o engajamento com as artes plásticas não manifesta suas características mais gerais e instrumentalizáveis simplesmente pela prevalência de algum dentre os propósitos acima – e outros não cobertos – mas pelo caráter intrínseco ou extrínseco do vetor motivacional que suporta a experiência individual destas intenções.

Abaixo segue a aplicação do novo modelo conceitual:

– Aqueles que querem se tornar um pouco mais cultos por meio da arte não sofrem diretamente os problemas do desengajamento porque têm uma razão extrínseca para dar atenção às obras. Por outro lado, não se propõem a estar existencialmente engajados com as mesmas, o que muitas vezes resvala à frieza. Não é raro que alguém passe a frequentar espaços expositivos para aprender sobre arte de vanguarda (especialmente se tem algum hobby artístico) e, lá pelas tantas, perceba que prefere uma bela obra a um carro novo.

  • As pessoas que consomem arte porque gostam da cena têm um motivador extrínseco que as mantém relacionadas, a despeito dos juízos estéticos e da qualidade da experiência gerada pelas obras. Tendem a se conectar pouco com as especificidades de cada trabalho, especialmente em termos críticos, já que depositam seu interesse sobre o caráter cool do ambiente e dos artistas na moda. Aqui, a competição com o celular é forte. E o relacionamento, efêmero.
  • Os que procuram o prazer estético e conceitual por meio da arte são os clientes mais sensíveis, exigentes e importantes. Eles se voltam à extração de recompensas intrínsecas e costumam responder bem às provocações artísticas.
  • Não se pode esperar grande engajamento ou recorrência das pessoas que frequentam os espaços expositivos tal como passeiam no shopping domingo de manhã, antes das lojas abrirem. Geralmente, não se envolvem muito com as propostas mais ousadas e são os que mais cedem ao celular ou qualquer outro estímulo concorrencial.
  • Finalmente, aqueles que usam a arte para contrabalancear o estresse costumam ter um grau de aderência mediano. Tal como se aplica aos clientes motivados pela aquisição de conhecimento, o escapismo bem sucedido tende a se tornar intensamente reforçador, movendo as pessoas para o grupo dos mais conectados com as propostas artísticas em si. Neste grupo se encontram aquelas pessoas que parecem meio deslocadas nos espaços expositivos mais cool, mas que cumprimentam a staff pelo nome, para a completa surpresa dos que estão lá por modismo e que, à primeira vista, parecem tão mais íntimos de tudo e todos.

Na medida em que esta proposta é válida, podemos considerar que a problemática do engajamento deve ter como focos primários os que querem adquirir cultura, as pessoas que se identificam com o meio, mas nem por isso entregam-se às provocações das obras e aqueles que frequentam os espaços expositivos como válvula de escape. Isso vai contra a noção mais intuitiva de procurar reforçar o relacionamento com aqueles que de antemão mergulham em sentido às essências artísticas, mas se justifica uma vez que consideramos que tais não apresentam problemas de engajamento.

Do mais, ela permite o delineamento de um funil de conversão, em face do qual diferentes estratégias devem ser colocadas em prática, não para tentar fazer as pessoas indistintamente consumirem arte – isso vai contra as lições mais básicas do marketing – mas para que avancem dos perfis menos aderentes àquele em que as provocações artísticas têm caráter reforçador intrínseco.

O paradigma neurocognitivo

Dizer que alguém está engajado na fruição de uma obra de arte significa que a representatividade mental da obra é suficiente para que outras coisas não fiquem perturbando a consciência de seus aspectos visíveis e de sua mensagem.

A razão pela qual as diferentes pessoas engajam-se ou não tem muito a ver com os motivos descritos acima, mas o engajamento em si é um fenômeno cerebral, com uma dimensão secundária comportamental. Trata-se de uma condição em que se destaca a varredura perceptiva prolongada, a inibição de pensamentos laterais e a geração de associações afetivas e conceituais. Apesar deste processo produzir resultados cognitivos e existenciais ricos e profundos, minha visão é que ele pode ser descrito parcialmente a partir de um conceito: atenção.

Atenção é muito mais do que supõe o senso comum; trata-se de uma das manifestações essenciais da consciência. Ela se diferencia em termos de seu direcionamento em interna (covert) e externa (overt). A atenção interna é aquela que dedicamos aos nossos próprios pensamentos, emoções e percepções sensoriais. Ela tem origem no monitoramento homeostático e é essencial ao pensamento abstrato. A atenção externa é aquela que dedicamos ao mundo exterior. Mantê-la exige um comportamento de sustentação da coleta de dados ambientais – a tal manifestação comportamental secundária do engajamento, que mencionei acima.

Quando dizemos que queremos que os presentes engajem-se com uma obra de arte estamos dizendo que esperamos que um processo em duas fases tome curso em seus cérebros. Primeiro, devem investir atenção externa no objeto; então devem redirecionar o foco atencional, com rapidez e naturalidade, para experiências emocionais inexistentes até o momento.

No mesmo sentido, quando dizemos que determinado tipo precisa se conectar à obra (pense, por exemplo, no tipo que está ali meramente para adquirir conhecimento), estamos sinalizando que este deve dedicar atenção interna às suas emoções imediatamente após dedicar atenção à obra, por meio de uma inversão do ponto de vista, de externo a interno. A ideia é que tais emoções terão sido disponibilizadas à atenção interior pela própria fruição artística, de modo que, ao perceber algo em si mesmo, o cliente encontrará uma via para apreender algo profundo sobre a obra em si.

O paradigma social

A ideia de que a relação com uma obra emerge do foco total nesta e nas emoções que gera deriva-se de uma concepção clássica de fruição, que vale para muitos casos, mas não para todos. Há muitas instalações interativas que exploram a interação entre os componentes do público, o que naturalmente dependente de atenção e sensibilidade horizontais, entre os pares. Na prática, é algo que nem sempre dá certo.

Uma forma de compreender porque as pessoas não saem com facilidade de suas bolhas para interagir com estranhos dá-se através da teoria dos jogos: a disposição para interagir depende da representação implícita da fruição coletiva como jogo cooperativo, isto é, como forma de relacionamento que acrescente algo para elas próprias e para todos os outros. Dá para dizer o mesmo de maneira mais matemática: a interação é uma função da percepção de que o valor recompensador da cooperação subtraído do custo motivacional de interagir supera o valor da manutenção do individualismo.

Este desafio é intensificado pelo fato de que a experiência do sujeito que ativa um outro, que não faz o mesmo, é negativa, desestimulando novas interações. Isto é incorporado ao cálculo cerebral que todos fazem sem perceber, gerando uma indisposição geral para mudar em direção à interação almejada pelo artista (equilíbrio de Nash). Em resumo, essas obras que pressupõem que as pessoas interajam nem sempre funcionam porque existe uma equação neuroeconômica sendo executada no cérebro, que depõe contra a interação preconizada.

Um novo tipo de arte tecnológica

A experiência do engajamento é atencional e a fruição artística é constituída pelo trânsito entre focos, externo-interno. Assim, uma forma de arte surgida em cima do desafio do engajamento necessariamente precisa modular a atenção, que é cerebral. Disto segue a necessidade de que esta nova modalidade artística não seja constituída apenas no mundo exterior, mas também dentro do cérebro do público. Enfim, arte cerebral.

Em paralelo, o fato de que a relação entre os presentes é um jogo cujo equilíbrio de Nash deve convergir ao desejo de contribuir mutuamente com o objetivo comum, passamos a depender de uma lógica de incentivos capaz de tornar a ação de cada sujeito simultaneamente recompensadora para ele próprio e para todos os outros.

Percebi a existência deste desafio há cerca de cinco anos e me dediquei durante alguns meses a tratá-lo mentalmente, usando uma série de estratégias equivocadas, até o primeiro modelo funcional, criado em parceria com com Eduardo Oda (IME-USP), Henrique Akiba (na época, meu aluno de doutorado), Fernando Meirelles e equipe da O2 Filmes. A ideia a qual chegamos foi a de desenvolver uma nova modalidade de interface cérebro-máquina (BCI), por meio da qual diferentes pessoas controlariam partes de uma mesma interface, com a “força do pensamento”, utilizando ondas cerebrais (EEG).

Esta interface, no caso, seria a obra de arte, de caráter multimídia.

Esta dimensão da proposta resolvia a questão do engajamento de maneira literal: o sistema faria as diferentes partes da obra de arte digital surgirem na projeção, conforme as ondas cerebrais utilizadas fossem em maior grau típicas do engajamento; correlativamente, conforme o engajamento fosse diminuindo, partes da obra iriam desaparecendo. Isso levou à invenção do EEG social, cujas aplicações transcendem o campo da arte. Porém, o problema da interação entre as pessoas permanecia firme e forte. A solução veio da adaptação de um recurso muito simples, presente em alguns dos softwares que utilizava no tempo em que tinha clínica de neuroterapia. Trata-se de um feedback sonoro automaticamente acionado quando o paciente consegue conduzir suas ondas cerebrais para dentro da faixa determinada para o seu tratamento. Um marcador de sucesso.

A ideia final seria, enfim, compor obras cerebrais multimídia a serem experimentadas por três ou mais pessoas ao mesmo tempo, onde um sinalizador marcaria o momento em que a peça atingiu sua plenitude, no cérebro e no mundo exterior. Apenas de maneira ilustrativa, considerem que temos três participantes, onde o engajamento cerebral de P1 controla a aparição de quadradinhos vermelhos e a bateria; P2 controla a aparição de triângulos verdes e o baixo; e P3 controla a aparição de círculos azuis e o piano; conforme todos atingem determinado grau de engajamento, uma guitarra envenenada é tocada e a obra para de flutuar dinamicamente. O princípio é capaz de tornar o jogo não cooperativo em cooperativo, conforme leva P1 a pensar “eu quero chegar à plenitude da fruição da obra mas, para isso, dependo do meu engajamento e também do engajamento de P2 e P3” e assim por diante; com isso, cada um passa a se tornar simultaneamente sensível ao seu próprio engajamento e ao engajamento dos outros dois, já que tais passam a ser decisivos para a formação da Gestalt.

Este foi o desafio que o time mencionado acima propôs-se a colocar em prática. A instalação teve vida curta e experimental, no Museu de Inhotim; há várias referências ao trabalho na internet, mas nada muito detalhado ou sistemático, já que na habitual correria não publicizamos a ação (um exemplo encontra-se aqui). Foi realmente muito divertido e emocionante; o engajamento genuíno, lá do âmago da subjetividade neurológica, é capaz de levar as pessoas aos prantos, conforme revelado na ocasião. Novas versões da obra foram apresentadas em outros espaços; a última tendo sido num espaço expositivo chamado Arca, da São Paulo Fashion Week, sob a curadoria de Daniela Thomas (2018).

Aqui pode ser encontrada uma animação despretensiosa feita pelo Pietro, da equipe de design digital do Grupo WeMind, para ilustrar a dinâmica criada:

Em paralelo, a obra deu origem a outros projetos de interface cérebro-máquina (um balanço suspenso por um sistema cerebral é um exemplo) para a ativação de marcas, que entraram no portfólio de uma das empresas do Grupo WeMind, do qual sou sócio. Como entretenimento, variações da experiência artística originária já passaram por dezenas de espaços relevantes, como o Transamérica, Expo Center Norte e a Bienal do Ibirapuera. Aliás, não vejo problema no fato da proposta ter ido mais à frente como produto tecnológico do que como arte. Fato é que um campo se abriu para construção de experiências que ultrapassam os limites da tela e das instações tradicionais, tanto por meio de estruturas robóticas que múltiplas pessoas controlam simultaneamente, quanto por meio de projeções mapeadas e outros tantos recursos, que servem à arte, design e entretenimento, tal como vem sendo típico para a new media art (vide discussão apresentada no ensaio anterior “O papel da tecnologia na arte contemporânea”).

Os limites para esta nova modalidade de arte (e seu braço de entretenimento) são amplos. Por exemplo, recentemente visitei a exposição Sol a pino, de Nuno Ramos, que envolve pinturas ricas de cores e de sentidos, que usam uma técnica chamada encáustica e literalmente saltam da tela. Fiquei pensando que o caráter volumétrico dessas obras fantásticas poderia ser reproduzido em um óculos de realidade virtual (VR), cuja conexão a um aparelho de leitura de ondas cerebrais (EEG) criaria um tipo bem interessante de experiência.

A ideia seria a pessoa vestir o óculos de realidade virtual conectado a um EEG e focar um quadro branco em sua parede. Então, uma das pinturas do Nuno surgiria, “saltando da tela”, como é o caso, no mundo físico. A pessoa deveria então se manter engajada com a obra para que esta não se decompusesse aos seus olhos; mais ainda, ela poderia navegar entre obras diversas apenas usando as mudanças emocionais filtradas pelos sensores, junto com o engajamento, de modo a se conectar com as emoções que o próprio artista entende como consonantes às diferentes peças da exposição.

Generalizando o princípio, aguardo a chegada das galerias virtuais em que as obras serão emocionalmente relacionadas pelo cérebro às intenções dos artistas, usando aparelhos de realidade virtual com EEG embutido, sejam estas obras de artistas reais ou obras extraídas do próprio inconsciente dos clientes, usando inteligência artificial e os recursos descritos aqui.

Ainda não temos isso disponível em escala, mas eu aposto minhas fichas que a arte cerebral vai despontar como uma das tendências artístico-tecnológicas da próxima década e vai ser divertido lembrar que tudo começou numa experiência maluca, em meados de 2015.

]]>
0
O papel da tecnologia na arte contemporânea http://visoesdofuturo.blogosfera.uol.com.br/2019/06/03/o-papel-da-tecnologia-na-arte-contemporanea/ http://visoesdofuturo.blogosfera.uol.com.br/2019/06/03/o-papel-da-tecnologia-na-arte-contemporanea/#respond Mon, 03 Jun 2019 06:55:20 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=80

A arte contemporânea a partir de três objetivos fundamentais

Em “Histórias do agora digital”, Christiane Paul, a curadora adjunta de arte digital do Whitney Museum (NY) é taxativa: “entre em qualquer galeria ou museu hoje e você irá encontrar obras que usam tecnologias digitais em algum ponto de sua produção” (https://bit.ly/2JV0xT9). Aquilo que popularmente entende-se como tecnologia está tão infiltrado na arte contemporânea, quanto em qualquer outra área do desenvolvimento humano, à exceção da educação.

Porém, uma particularidade da arte e de algumas outras disciplinas como a filosofia tecnológica e a psicologia cibernética é que ela tem um ramo em que a tecnologia transcende seu papel instrumental e é tomada como arcabouço inspiracional e criativo. Este domínio possui uma representatividade menor do que o das obras que usam a tecnologia de maneira incidental. Porém, tal está crescendo muito e precisa ter sua compreensão atualizada à luz do momento tecnológico em que vivemos.

Minha visão é a seguinte: a arte da nossa era encontra seu valor na medida em que se revela vanguardista, no plano em que historicamente é representada. Existem três direcionamentos fundamentais para se tentar chegar lá. A arte tecnológica não é nenhuma exceção quanto a isso; entretanto, vivencia-os de maneira peculiar, em função de questões trazidas pelo progresso tecnológico e ampliação das interações digitais. Enunciar estas questões, vinculando-as aos direcionamentos tomados pelos artistas tecnológicos, na tentativa de criar trabalhos mais memoráveis, é a recomendação para entender a estrutura profunda deste universo fascinante.

Dizem que Mark Rothko (1903-1970) estava conversando com Harold Rosenberg, crítico de arte da New Yorker, quando disse “não expresso meu ego em minhas obras, mas o meu anti-ego” (https://bit.ly/2MlEJCm). Frase curiosa, diriam alguns, tomando por base sua paleta de cores intensas e a ênfase que deu à remoção de barreiras à expressão emocional. Mas não. Sua visão da subjetividade na criação artística desdobra-se na inspiração para desenvolver peças depuradas de maneirismos, tal como se desse modo pudesse livrá-las de si mesmo e dos tormentos que o levaram ao suicídio, assim permitindo que ascendam ao status de formas autônomas de experiência.

Esta independência em relação ao artista é a via para o primeiro grande objetivo da produção vanguardista. Aqui, a ideia é que a obra não seja uma espécie de relato de caso ou extravasamento de particularismos, mas que estimule percepções e sentimentos estéticos que as pessoas reconheçam como relevantes em si mesmos e alheios ao repertório conhecido até aquele momento, tornando a obra intrinsecamente propositiva. Isto vale ainda mais se tais sentimentos estéticos despontarem como mais interessantes e disruptivos que o status quo, tomando assim o seu lugar.

Pense em Braque e Picasso ou no essencialismo espacial dos toquinhos de Mira Schendel (https://bit.ly/2Z1P1Jd). A relevância criativa não se restringe aos efeitos imediatos que cada peça produz, mas à maneira como juntas introduzem um novo paradigma sobre os sentidos, que pode ser explicado sem volteios e relacionado a trabalhos em que se mostra acima de quaisquer maneirismos ou idiossincrasias.

Uma segunda linha intencional na arte contemporânea é a que privilegia o questionamento sobre a afirmação. A ideia é que a obra de arte realize o que Edmund Husserl chamou de suspensão fenomenológica – etapa necessária ao conhecimento sobre a realidade percebida, que ganha forma quando inibimos nossos juízos e procuramos redescobrir o papel das coisas tal como se tivéssemos aportado aqui recentemente; trata-se de um efeito também atingido pela meditação e alucinógenos. Um dos desfechos mais celebrados pelo método é a ressignificação, onde o urinol no museu consagrou-se como símbolo mais elevado. Parte relevante da arte contemporânea utiliza-se deste método centenário de suspensão de juízos, seguido da alteração estrutural ou deslocamento “metonímico” de formas e objetos de seu contexto funcional original, revelando assim seu estranhamento ou poder de fascinação. Às vezes funciona de maneira magnífica; outras, conduz a catálogos de curiosidades, insuficientemente conectadas para segurarem uma mostra ampla ou estabelecerem um diálogo contributivo, no domínio da evolução das vanguardas.

A terceira grande linha é a da arte como veículo para denunciar realidades abusivas ou recalcadas, sob a premissa de que as proposições críticas têm sua penetração aumentada, conforme são embaladas esteticamente. Trata-se do mesmo princípio que inspira o ativismo no cinema comercial ou, ainda, os comediantes mais engraçados, como Louis C.K. Em contraste com o que se aplica a estes últimos, acredito na existência de insuficiências tensionais para tanto, no plano da arte de vanguarda. O sucesso da estratégia do bom comediante ao colocar em cheque a prática das coisas é determinada pelo fato de que existem descolamentos relevantes entre aquilo que falamos e fazemos de forma rotineira e os juízos de valor que se manifestam de maneira subjacente. Ao nos conduzir ao questionamento da primeira camada, este tipo de artista induz-nos a desinibir a segunda, o que proporciona satisfação e riso. Esta relação entre planos de significação não se reproduz na experiência estimulada pela arte vanguardista, já que realidades estéticas ocidentais do século XXI não são inibições sociais, cujo desvelo causa frisson – não entre os que frequentam o meio. A situação é análoga àquela que ocorre quando o ator retorna à cena pelado e ninguém que frequenta teatro dá a mínima para a suposta rebeldia.

Não é que inexista papel para a instrumentalização discursiva na arte contemporânea e que o artista deva ser uma espécie de artesão de constructos positivistas; longe disso, limada de toda transcendência, a arte vanguardista carrega o privilégio de ver de fora os costumes e técnicas que mais fortemente definem a vida pragmática. A questão é que a produção que se restringe a tanto tende a não satisfazer as aspirações mais profundas do seu público, o qual está psicologicamente equipado para consumir questionamentos sem grandes tensões e dificuldades, neutralizando-os à revelia. É o velho problema da pregação para convertidos, inibindo impactos como os gerados pelo traçado em perspectiva de Filippo Brunelleschi, pela apropriação impressionista do processamento cognitivo do contraste entre cores ou pelas serigrafias de Andy Warhol.

 

A tecnologia através da arte

A arte tecnológica que encontramos hoje em dia em museus, galerias e espaços alternativos ao redor do mundo despontou na segunda metade da década de 1970, sobretudo a partir da vertente conhecida como new media art. Ao passo que podemos definir o expressionismo pela premissa de que a realidade objetiva diverge da subjetiva, a qual que deve ser priorizada na expressão artística, o suprematismo pelo apreço geométrico, paleta restrita de cores e alinhamento a preceitos antimaterialistas, bem como o surrealismo pela noção de que o inconsciente precisa ser canalizado para que a criatividade floresça, a new media art é menos definível por prerrogativas sobre como fazer arte e mais pela adoção de meios alternativos à tela, escultura ou texto.

Não é que seja completamente depauperada de princípios. Nela encontramos, por exemplo, a tese do esgotamento dos formatos tradicionais e a premissa de que o desenvolvimento tecnológico é uma das questões fundamentais da nossa era, o que a despeito de ser sempre verdade, pode ser relacionado de maneira particularmente aguda ao boom da computação digital, no final dos anos 1970, que ficou conhecido como revolução digital ou terceira revolução industrial.

A questão é simplesmente que isso não é suficiente para que possamos falar em um movimento artístico bem delimitado em seus princípios; melhor tomar a new media como um conjunto de tendências vanguardistas, reunidas pela pesquisa de novas formas de expressão que, sob forte inspiração da computação, vieram a ser predominantemente digitais. Arte computacional ou “digital”, para simplificar.

Os direcionamentos objetivos da arte digital seguem as três grandes linhas que se aplicam à arte de vanguarda como um todo: afirmação de formas inovadoras de arrebatamento estético, alinhadas aos últimos desenvolvimentos da informática, questionamento e ressignificação dos meios tecnológicos e instrumentalização engajada. Para satisfazê-los, a arte digital aparentemente toma para si espaços criativos quase infinitos; o dia a dia, entretanto, é menos colorido, marcado por três grandes desafios contextuais.

O desafio mais evidente é superar o baixo engajamento de base do público, o qual se acentua frente a este tipo de arte, na medida em que tal se emparelha mentalmente aos objetos culturais com os quais estamos todos condicionados a nos conectar. Não é que o público se negue a fazer aquilo que dele é esperado numa exposição de arte digital e, por isso, acabe pagando um preço alto, na forma de desconexão e tédio. Pelo contrário, as pessoas topam se posicionar em frente da obra e até seguir instruções para tomarem ativamente parte em instalações tecnológicas. O problema está dentro, onde muitos processam a proposta da obra tal como se estivessem em um cenário decisório entre mídias competitivas, o que quase que invariavelmente conduz ao retorno rápido à bolha em que se encontravam em primeiro lugar.

Esta perda rápida de conexão pode ser conceitualmente representada de maneira econômica. No caso, existe uma disputa cerebral no domínio da economia da atenção, onde a intenção do artista dá com os burros n’água quando o custos cognitivos de responder aos requisitos da obra, ponderados pela expectativa de retorno de fazê-lo, possui utilidade esperada inferior à manutenção da atividade atencional no mundo mental em que cada um coabita, com seus interlocutores remotos e devaneios típicos. A briga é dura, o hábito se retroalimenta e o futuro não parece aliviar. Tanto pelo contrário, a competição vem se acirrando, em consonância com os platôs definidos por cada geração de telas, dispositivos sonoros e projeções volumétricas (AR/VR/hologramas).

O segundo fator é determinado pela concorrência indireta com outros produtos culturais, do ponto de vista conceitual e temático. Considerando a relação entre arte e sociedade como figura e fundo, é de se considerar que este último incorporou uma indústria fervilhante de entretenimento tecnológico e produtos dos mais variados, caracterizados por reservarem ao arrebatamento estético papel fundamental. Verdadeiras filosofias de design foram criadas pelas grandes empresas de tecnologia, que hoje contam com comunidades em que os sujeitos talentosos são contados às centenas. Dois exemplos são o material design (Google) e o flat design (Apple). Basta uma passada no Behance (https://www.behance.net/) para entender o nível da conversa.

Tornou-se difícil para artistas independentes e coletivos ombrear o apuro das produções digitais de empresas que não incluem questões estéticas entre as suas maiores preocupações, mas que nem por isso deixam de investir pesadamente nesta seara e de cultivar o hábito de contratar expoentes da arte e do design para dirigir suas divisões de produtos. Vide Salesforce, Google e Microsoft. Simultaneamente, há a competição tácita com as agências que se posicionam de maneira análoga e, de quebra, não poupam esforços para diluir as barreiras entre propaganda e arte.

O terceiro desafio possui contornos técnicos: é muito difícil encantar usando recursos computacionais com os quais não se tem intimidade, ao passo que adquirir desenvoltura no uso dos mesmos depende de competências de base que demoram anos para se firmar na mente daqueles com inclinação e estamina para tanto. Quando o artista insiste em se pautar por recursos que desconhece, facilmente torna-se refém dos mesmos, o que resulta em peças ingênuas, que geralmente não surpreendem.

O percurso em sentido a cada um dos objetivos anteriormente descritos é tensionado por esses desafios privativos da arte digital, em sua busca pela consagração. No todo, quem mais sofre é a arte como denúncia e desvelo de recalques, começando pela crítica social, dado que posicionamentos desta natureza costumam aparecer em propagandas bonitas e sensíveis, em consonância ao princípio de que as tensões de fundo há muito desapareceram. Vide Benetton.

Consideremos um caso atual. Entre setembro de 2018 e abril deste ano, Tamiko Thiel esteve com “Unexpected Growth”, no Whitney Museum (NY). A obra consiste de uma animação em realidade aumentada, na qual figura um fundo de mar, com dejetos humanos e pode ser conferida aqui: https://youtu.be/pKrwBhgNkBg. Mais ou menos na mesma época a agência FF New York criou uma propaganda para a Sea Shepard, também denunciando a poluição marítima, a qual pode ser encontrada aqui: https://youtu.be/cYPeu_fdWas. Compare-as e tire suas próprias conclusões.

O cenário não é menos espremido para as críticas endereçadas às questões típicas do universo tecnológico, a despeito de tal não interessar às marcas, exceto muito pontualmente, para contrabalancear seus próprios excessos. Aqui, a questão é que formatos e posicionamentos digitais de grande eficácia já foram estabelecidos para tanto. O mundo da tecnologia é coalhado de fóruns para ações anti-establishment, libertárias ou ativistas de repercussão global. É difícil competir com o Wikileaks ou os cypherpunks, em termos de discurso e ativismo contra governos, corporações e os bots que nos perseguem pela internet.

A procura pela ressignificação tecnológica, por sua vez, é profundamente relacionada à necessidade de entender em profundidade o substrato técnico em uso, o qual é invariavelmente mais complexo do que parece. Um exemplo: existem muitos websites artísticos, alguns lindos, mas poucos com destaque no plano da arte mais vanguardista. A razão para tanto é um pouco sutil, mas vou tentar explicar. O sujeito que concebe em um website, de maneira geral, tem em mente uma estrutura digital que exibe conteúdos, os quais se distinguem daquela, mais ou menos como obras – ou salas expositivas customizadas – distinguem-se do prédio da galeria, nos arranjos espaciais convencionais. Este aparato que retém e exibe possui diferentes subdivisões que não podem ser renderizadas ao mesmo tempo e que, em função disto, chamamos de páginas; estas dependem de algumas regras para que possam ser exibidas pelos navegadores.

Para facilitar o lançamento de novos websites, algumas empresas incorporaram os recursos mais usuais em unidades de gestão de conhecimento pré-moldadas, como WordPress e Drupal que, por sua vez, têm como alternativa, as versões desenvolvidas na unha. Tal unha tende a fazer ela própria um apanhado de trechos de código e convenções para colocar a estrutura de pé. E tudo isso junto explica porque, do ponto de vista estrutural, websites tendem a ser parecidos.

Ao passo que a vasta maioria dos websites artísticos parte da concepção de que a arte em si é o conteúdo disponibilizado, fato é que a tecnologia digital, que supostamente está no centro do trabalho, é completamente agnóstica àquilo que é carregado como texto, vídeo ou imagem. Ignorar tal ponto é mais ou menos como desconsiderar o papel dos materiais na determinação do potencial disruptivo de um projeto arquitetônico.

Percebi a relevância desta questão há uns quatro anos. Eu tinha sido comissionado para criar a obra digital Encephalon (o Cubo das neurociências, que fica no segundo andar do Museu do Amanhã) e estava pensando bastante em arte, apesar de ter total clareza de que não pertenço a este meio, nem jamais irei pertencer. Mesmo assim, em conversa com alguns artistas, pensei em ajudar a lançar o que propus chamar de “Web as Art”. A ideia seria que esta modalidade criativa envolvesse artistas digitais conscientes do ponto colocado acima que, com o conhecimento técnico necessário, colocassem em suspensão a própria noção do que é um website. Não dá para fazer isso sem entender e, de certo modo, contemporizar certas noções relativas à arquitetura computacional para este meio que Tim Berners-Lee criou e que chamamos de World Wide Web. Encrenca feia, sem dúvida, mas de enorme potencial.

Porém, num daqueles momentos insólitos de tão sincrônicos, deparei-me com um artista muito criativo, que não apenas tinha pensado a mesma coisa, como efetivamente tinha inventado esse novo formato digital, o qual estava em exposição numa galeria nova iorquina. Seu nome é Rafaël Rozendaal e o trabalho em questão pode ser visto aqui: https://www.newrafael.com/websites/. Eis um bom exemplo de ressignificação, que não por acaso já foi visto por mais de 60 milhões de pessoas.

Finalmente, chegamos aos artistas digitais que efetivamente conseguem assumir um papel radicalmente propositivo, gerando obras com o poder de nos ensinar a ver um mundo tecnológico desconhecido e mais relevante. Estes são como oráculos, antecipando tendências de alto interesse para a indústria, com a qual invariavelmente tendem a flertar, elevando ainda mais a barra de superação daqueles que vêm a seguir.

Quanto mais competitivo o ambiente, mais estonteante a criação. Isso explica o fato da arte digital ter atingido níveis hiperbólicos de brilhantismo propositivo no eixo Japão-São Francisco, onde o coletivo Teamlab desenvolve suas representações transcendentais do visível, as quais vêm se tornando essências para o mundo da arte e para a própria evolução da tecnologia. Avalie por você mesmo e se um dia puder, deixe o celular no hotel e vá conhecer de perto: https://borderless.teamlab.art/; https://www.teamlab.art/.

]]>
0
Tecnologia molecular promete desvendar a causa das doenças http://visoesdofuturo.blogosfera.uol.com.br/2019/05/21/a-causa-das-doencas/ http://visoesdofuturo.blogosfera.uol.com.br/2019/05/21/a-causa-das-doencas/#respond Tue, 21 May 2019 04:52:11 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=71

Causalidade: a mãe de todas as intuições

Vemos o dia nascendo, o sol subindo, chegando a pino, depois descendo, até sumir, enquanto a noite toma forma. Esse ciclo fascina e serve de pano de fundo para o surgimento de várias percepções relevantes ao amadurecimento da mente infantil, como a de que o tempo do sono é o tempo de um ciclo natural que ocorre lá fora e de que o sol é responsável pelo calor e pela claridade.

O mesmo se dá em relação às coisas que jogamos para cima e que sabemos que cairão, a panela quente que sabemos que nos queimará e um sem fim de outras percepções estruturadas em torno de causas e efeitos, que aos 9 meses de idade já estão emitindo seus sinais, numa clara demonstração de como as pressões evolucionárias levam a concepções inatas sobre o funcionamento do mundo.

A descrição da causa das coisas é uma das forças por trás do avanço das formas de registro e comunicação, podendo ser observada em alguns dos nossos primeiros textos coerentes, mais de 4000 anos atrás. Descrições levam a versões e estas a disputas. Não tardou para o campo unificado da ciência e da filosofia ganhar a forma de uma espécie de arena para o duelo de concepções sobre as causas das coisas que mais nos importam, começando pela vida em si. Essa tensão gameficada que às vezes desanda em baixaria foi e permanece sendo determinante para o interesse pelo pensamento grego e por grande parte dos debates públicos durante séculos de produção intelectual.

A revolução científica iniciada com Galileu e estendida por Descarte e outros, a partir do início do século XVII, propôs descrever o mundo tal como se fosse uma grande e complexa máquina, com relações de causa e efeito por todos os lados, em substituição aos princípios da escolástica, que davam o tom até então.

Noam Chomsky costumava explicar isso com genial simplicidade, a partir de interpretações contrastantes sobre a percepção de um peão girando: na visão escolástica, a percepção aconteceria conforme o peão em si ressurgisse em nossa mente, por força de uma espécie de simpatia que nos uniria ao mesmo; na visão cartesiana, a experiência seria reconstruída, a partir de propriedades intrínsecas da mente, dispensando tal ligação mística. De um lado, o peão causa a percepção porque existe algo na natureza gerando este efeito; de outro, ele emerge da mente.

Em ambos os casos, chegamos do efeito percebido às causas, com convicção.

O mecanicismo de Galileu e Descartes sofreu abalos que o tornaram francamente obsoleto para explicar o mundo físico, já no começo do século XVIII, por meio da lei da gravitação universal de Isaac Newton e outras, que não dialogam bem com essa metáfora de geringonça universal.

Numa outra esfera, David Hume foi responsável por ressalvas importantes aos nossos juízos causais mais básicos. Causou furor, uma vez que estes juízos surgem da configuração que a evolução forjou para os nossos circuitos cerebrais.

Causalidade é a mãe das intuições.

O problema dos percalços causais pode parecer filosófico demais para interessar ao futuro da humanidade, mas a verdade é o contrário. Poucos problemas são tão importantes e servem tão bem de plataforma para a criação de soluções para os desafios de larga escala que enfrentamos hoje em dia e no futuro.

A questão sobre a qual me debrucei em meus dois últimos ensaios – como criar sistemas de suporte decisórios, baseados em inteligência artificial, adequados ao Estado – é todo permeado pela combinação da impossibilidade de rigorosamente irmos além das correlações, com a necessidade de tomarmos tais como se fossem causalidade, para podermos aplicar na prática aquilo que esses sistemas recomendam.

Na minha visão, o aprendizado de máquina (inteligência artificial dos softwares que ajudam as pessoas a tomarem decisões) é uma espécie de contraposição ao mecanicismo típico da computação tradicional, conforme exposto no ensaio “Um Nobel para Eliza”.

Na atualidade, este braço central da evolução tecnológica da sociedade encontra-se atrelado a uma espécie de fase neo-humeniana, na qual o Graal é a causalidade, a capacidade de dizer que a combinação X de características gera Y.

O desafio causal não é exclusivo da inteligência artificial; muito pelo contrário, enquanto esta área ainda está tateando o assunto, na medicina, a discussão anda bem mais avançada.

É neste contexto que vem ganhando popularidade uma estratégia tecnológica que promete salvar vidas, limar tratamentos inúteis, poupar bilhões de dólares e acelerar o progresso da ciência substancialmente. Seu nome: randomização mendeliana.

O objetivo deste ensaio é explicar a randomização mendeliana, dando uma noção dos benefícios que pode nos trazer na prática. Após isso, despeço-me pela semana, com uma breve reflexão sobre causalidade e futuro, inspirada na mesma.

 

Princípios da randomização mendeliana

Não existe uma área rigorosamente dedicada às causas das doenças em geral; afinal, a complexidade de cada uma e a variância entre elas é suficientemente grande para que não tenhamos muitos cientistas com mais do que uma descrição causal no currículo. Apesar disso, um conceito especificamente talhado para a descrição do domínio das causas permanece popular no campo: etiologia.

Na prática, a teoria é outra e restringimos o uso do conceito às doenças individualmente consideradas, como em “a etiologia da esquizofrenia é multifatorial”.

A estratégia consagrada tanto para a determinação da etiologia, quanto para o tratamento de uma doença é o ensaio clínico.

Por exemplo, a insuficiência ovariana prematura é uma condição em que a quantidade circundante de hormônio folicular estimulante (FSH) aumenta, levando mulheres à menopausa precoce. Até recentemente, cerca de 1/3 dos casos tinha sua causa elucidada. Para melhorar isso, um grupo liderado pelo pesquisador médico turco Begum Aydogan genotipou 200 mulheres, sendo metade portadora da condição e metade saudável, em busca de variantes genéticas (polimorfismos) associadas a mesma (https://bit.ly/2VGwIaJ).

A característica principal deste tipo de ensaio, que chamamos de observacional, é o fato de conhecermos de antemão o desfecho – insuficiência ovariana prematura –presente em um grupo, mas não em outro. A partir deste conhecimento, compilamos fatores moleculares que se destacam no time de quem tem a doença.

Evidentemente, não é possível ir além das correlações em estrito senso – ou seja, não se trata de desenho derradeiramente causal – e é preciso incluir muita gente para que as conclusões cheguem à prática clínica, afinal, a chance daquilo que foi correlacionado não ter papel causal na doença é considerável.

Um segundo tipo de experimento é o chamado ensaio clínico controlado e randomizado (RCT); este muitas vezes sucede o estudo observacional, na longa cadeia até a enunciação de uma hipótese etiológica séria ou um novo tratamento.

Por exemplo, autores de estudos observacionais sugeriram que betacaroteno protege contra câncer de pulmão. Isto levou a uma disparada na venda de suplementos, que não foi totalmente revertida quando RCTs mostraram que esse efeito inexiste.

O mote dos ensaios clínicos controlados e randomizados é contrapor procedimentos que achamos que possam funcionar a placebos. Os participantes devem ser distribuídos nos dois grupos (ativo/placebo) ao acaso e não devem saber em qual estão. Idealmente, esta informação não deve ser revelada para os próprios pesquisadores envolvidos na manipulação experimental (duplo-cego). Em nosso Lab (LinC-EPM-UNIFESP) priorizamos experimentos com este desenho.

Como é possível supor, avançar a medicina estritamente em cima da combinação entre estudos observacionais e RCTs é caro, muito trabalhoso e lento. Mesmo quem odeia a indústria farmacêutica com todas as suas forças não pode negar que um dos componentes que impacta o preço dos medicamentos é o alto custo das pesquisas que seguem o igualmente caro processo de síntese de uma nova molécula.

Agora, vamos considerar um novo ponto de vista: genes possuem as receitas para a síntese dos micro-blocos estruturais (aminoácidos) do organismo.

Genes frequentemente apresentam variantes na população (polimorfismos), as quais levam à formação de estruturas biológicas que diferem funcionalmente. As menos funcionais, muitas vezes, não chegam a impedir a geração de descendentes férteis, de modo que o polimorfismo se espalha. No exemplo acima, é fácil entender isso: mesmo que a menopausa seja antecipada em alguns anos, a maior parte das mulheres terá tempo suficiente para ter filhos, os quais levarão o polimorfismo à frente.

No plano molecular, as coisas se passam como se cada variante genética fosse uma mini-pessoa lutando por sua sobrevivência, num game que se desenrola sobre um grande escadão de pedra mal ajambrado, onde cada degrau é uma geração.

A intempestividade pode deslocar uma pedra e arrastar a si mesmo para o buraco.

Na escala que vai dos efeitos marginais à morte, essas variantes genéticas levam à produção de biomarcadores, que nos interessa saber se têm papel causal nas doenças, uma vez que conseguimos atuar sobre eles. Outras vezes, tais variantes genéticas mimetizam fatores ambientais, sem a maioria dos elementos de confusão que estes agregam à vida como ela é.

A proposta fundamental da randomização mendeliana é usar estes princípios para determinar a causa das doenças. Trata-se de uma alternativa poderosa aos ensaios clínicos tradicionais, que reflete o rápido avanço das tecnologias moleculares.

Há alguns anos, isso poderia soar como a ideia mais insensata que alguém poderia ter. Mas, fato é que as bases de dados genéticos estão se tornando gigantescas e o custo de fazer um estudo desses cada vez mais se aproxima do custo de rodar algumas análises. Esse é o aspecto mais revolucionário de todos, o qual transcende a especificidade da discussão. A medicina vem se tornando cada vez mais tecnológica e molecular, através de mudanças de paradigmas que atingem seus aspectos mais elementares.

Olhemos a prática. Muito se discute sobre o papel do álcool nas doenças cardiovasculares. De um lado, há a hipótese de que o álcool aumente o risco das mesmas, mas como quem bebe mais tende a fumar, as conclusões acabam prejudicadas. De outro lado, reside a hipótese contrária, a qual não deixa de viver seus próprios dramas, sobretudo em função de um problema metodológico chamado reversão causal: o sujeito que sofre de doenças cardiovasculares costuma beber menos, dado que sua vida se torna generalizadamente mais regrada.

Parece simples corrigir esses fatores de confusão, mas a realidade é oposta.

Os estudos empíricos vão crescendo internamente e se multiplicando, o tempo vai passando, a discussão se arrasta e até hoje as pessoas não sabem muito bem se devem beber para se proteger um pouco das doenças cardiovasculares e, ainda mais, o quanto devem fazê-lo, em caso afirmativo.

Como sair desse impasse? Uma coisa que se sabe é que os efeitos do álcool ganham forma por vias moleculares relacionadas a sua transformação em acetato (oxidação). Portadores de uma variante do gene ALDH2 têm mais dificuldade em fazer isso, o que vem acompanhado de uma série de reações negativas ao consumo elevado de birita. Como consequência, tendem a beber pouco.

Ficam vermelhos como pimentão e, na segunda taça, passam mal. Quem nunca viu?

Portanto, para saber qual o papel do álcool nessa história, acaba sendo melhor responder se os portadores do perfil genético que induz baixo consumo têm +/- doenças cardiovasculares, do que adotar o caminho aparentemente mais intuitivo, investigando a relação entre o consumo em si e a presença destas doenças.

Agora vamos dar um passo a mais em sentido ao aspecto mais profundo da randomização mendeliana. Para tanto, consideremos o fato de que o chamado colesterol bom (HDL) é inversamente relacionado à doença coronária arterial (CAD).

Sob tal princípio, muitas vezes foi dito que o efeito protetivo do álcool no organismo ocorre por essa via. O estudo mencionado acima é taxativo: “o efeito cardio-protetivo do álcool é mediado pelo aumento no HDL”.

Acontece que pela aplicação de randomização mendeliana foi verificado que as variantes genéticas que aumentam o HDL não diminuem a frequência de infartos do miocárdio e doenças associadas (https://bit.ly/2JS5DyJ e https://bit.ly/2HtwxLQ). Ou seja, o estudo citado está errado e a gente pode dizer com segurança que o HDL não é fator causal (direto/inverso), a despeito de todas as aparências.

Beber moderadamente tende a ter efeitos protetivos (https://bit.ly/2wvCrFB), mas isso não ocorre em função do HDL, ainda que este de fato aumente em quem bebe quantidades pequenas e medianas, com constância.

A mensagem que segue e que serve de medida da relevância dessa novo tipo de estudo molecular é que terapias para aumentar o HDL são perda de tempo.

 

Causas distais e o futuro das tecnologias moleculares

As causas, no domínio da vida, desdobram-se em planos distintos, de acordo com a escala temporal na qual consideramos um fenômeno natural.

Por exemplo, o comportamento de beber água pode ter como causa uma experiência desagradável (sede), que procuramos aplacar. Esta tem como sua própria causa a atividade de um sistema cerebral formado pela amina terminalis, núcleo pré-optico e outros, que infere a concentração osmótica do organismo. A atividade deste sistema é causada pela expressão de genes, o que envolve DNA, RNA, metilações e muito mais.

Todo esse ecossistema de relações pode ser chamado de domínio das causas proximais. O que lhe caracteriza é o fato destas causas estarem no mesmo plano existencial da pessoa que efetivamente bebe a água.

Hume não poderia imaginar, mas existe um outro plano. Este é o das causas distais. Ninguém pode acessá-lo diretamente, mas ele serve de substrato às próprias causas proximais, dos genes ao comportamento.

No plano das causas distais residem as pressões seletivas e outros fatores evolucionários responsáveis por estes genes específicos terem chegado até aqui e não outros quaisquer. Não tome esta ideia como meramente filosófica, a coisa vai além.

Cada vez mais, torna-se claro que as mais intrincadas estruturas da natureza são criadas replicando princípios da evolução por seleção natural, no interior de cada organismo. Princípios distais manifestam-se em ambientes proximais.

Hoje sabemos que uma das razões para termos quase cem bilhões de neurônios e, ainda assim, não sofrermos com uma profusão de defeitos incapacitantes é o fato destas células competirem por recursos neurotróficos (comida de neurônio) durante o período em que nosso cérebro está se desenvolvendo.

Os neurônios menos aptos dançam no caminho, mais ou menos como alguns de seus ancestrais menos adaptados.

Este tipo de princípio vem sendo largamente aplicado no desenvolvimento de terapêuticas oncológicas e outras mais. Fora da medicina, passou a dar o tom para quem quer empreender no estilo do Vale do Silício (die fast) ou simplesmente lançar um produto (MVP).

O ethos do mundo está mais darwiniano do que nunca, a despeito do fato de sabermos que, em nível molecular, a evolução não é tão darwiniana quanto assumem os biólogos mais ortodoxos.

Porém, para além disso tudo, existe uma coisa nova no pedaço, que é a possibilidade de alterarmos nossos próprios genes, transmitindo essas alterações para as próximas gerações. Isto é tal como se a escadaria geracional que atravessamos nos últimos cem mil anos ficasse em outro planeta. Falaremos disso um pouco mais para frente.

]]>
0
Usar IA para decisões judiciais soa controverso, mas pode ser uma solução http://visoesdofuturo.blogosfera.uol.com.br/2019/05/13/quando-a-inteligencia-artificial-chega-aos-tribunais/ http://visoesdofuturo.blogosfera.uol.com.br/2019/05/13/quando-a-inteligencia-artificial-chega-aos-tribunais/#respond Mon, 13 May 2019 03:44:13 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=63

O problema não é como a IA faze as coisas (especialmente as ruins), mas o que você quer que ela faça, ou seja, as crenças que você deposita ali. Para que a máquina funcione no Judiciário, é preciso incluir uma visão de mundo no algoritmo

A visão hegemônica das máquinas inteligentes

Ideias, tal como pessoas, podem cooperar ou competir. Visões de mundo são ideias que procuram acomodar diversas outras em seu interior. Elas frequentemente competem. Conforme a mais aderente começa a ganhar primazia, aquelas que são sobrepujadas passam a encampar ataques de diferentes naturezas e assim o mundo caminha para polarizações ideológicas, tanto em situações legítimas, quanto naquelas em que as visões concorrentes mais parecem se espelhar.

A perspectiva de que o cérebro humano é limitado em sua capacidade de aprender sobre o mundo e por isso precisa ser complementado por aprendizado de máquina, ramo mais exuberante da inteligência artificial, tornou-se hegemônica na atualidade. A ela se opõem variações do tema de que nossas intuições e capacidades analíticas são nossas melhores apostas para o futuro. Dali saem contragolpes justos e injustos.

Uma das consequências da hegemonia estabelecida é que passamos apostar fortemente em sistemas de suporte e automação decisória. Difícil achar governo, grande empresa ou centro de excelência científica no mundo que sirva de exceção.

Olhando em retrospectiva, muito do que foi feito nesses últimos anos nesta área não passa pelo teste do bom senso. Três, quatro anos atrás, só se ouvia falar em Big Data, na tese de que a produção de insights sobre o mundo depende fundamentalmente de muitos dados. Hoje está clara a existência de desafios um pouco mais sutis. Por exemplo, a qualidade e não só a quantidade dos dados à mão é essencial, pois se “lixo entra, lixo sai”, bem como o tipo de aprendizado de máquina adotado.

O cérebro humano precisa de bem menos exemplos para aprender do que qualquer sistema criado pelo homem. Até pouco tempo atrás, este fato era sumariamente ignorado, sob a premissa de que bastariam mais dados para chegarmos ao mesmo ponto. Hoje sabemos que não é bem assim e depositamos enorme energia no desenvolvimento de formas mais orgânicas e verdadeiramente semânticas de aprendizado de máquina. Nunca as neurociências estiveram tão em alta.

Modelos inspirados na biologia cerebral não dão passos relevantes em sentido à humanização da inteligência artificial, ainda que o façam em sentido ao aumento de sua efetividade. Com isso, a polarização entre a visão de mundo que aposta em máquinas inteligentes e a que diz que isso prejudica a humanidade não cedeu pela disseminação desta inspiração e, como sempre, quem mais deixou de ganhar foi quem mais precisa que isso tudo funcione melhor: nós todos. O tempo é imune a DRs.

Tendo a acreditar que uma transformação na visão de mundo dominante acontecerá em breve. A disputa enunciada perderá relevância, em prol de outra, cujos contornos fogem à compreensão atual. Minha principal inspiração para este diagnóstico é a percepção de uma mobilização crescente em torno da detecção e solução dos problemas trazidos pela inteligência artificial, dentro e fora dos círculos de especialistas.

Em meu último ensaio, procurei fazer uma pequena contribuição a este debate, num domínio que acredito que mereça mais atenção do que vem recebendo: o da adoção de algoritmos pelo Estado.

Deste ponto de vista, expus os principais desafios que enxergo, incluindo o problema destes sistemas gerarem resultados na forma foto (escore), ao invés de filme (monitoramento), em direta contradição com a natureza dos fenômenos sociais sobre os quais incidem; e o problema da obsessão com a diminuição de incertezas, que por meio de algoritmos impacta nossa capacidade de delinear futuros alternativos, lentificando a evolução cultural, enquanto se propõe a acelerá-la. Estes dois problemas foram originalmente descritos aqui para vocês, não tendo sido adaptados de nada que tenha saído na literatura científica ou de divulgação que eu conheça.

O escrito de hoje busca dar um passo além, privilegiando os desafios enfrentados pelo judiciário. Inicialmente, quero compartilhar com vocês um princípio crítico na adoção de algoritmos, especialmente pelo judiciário; em seguida, uma visão sobre como vieses discriminatórios entram pelas frestas dos algoritmos. Finalmente, serão apresentadas algumas sugestões para resolver o primeiro ponto. A ideia é evitar ao máximo a discussão técnica, sem contudo passar por cima do que fato que, na prática, é no plano em que ela acontece que a exequibilidade daquilo que pode ser posto em palavras é determinada.

 

A intencionalidade através do código

A maior falácia de todo o campo da inteligência artificial é que seus principais problemas refletem nossa imaturidade tecnológica. Na realidade, eles fundamentalmente pela importação de vieses institucionais que perpassam toda a sociedade.

Não é tanto a maneira como a máquina faz as coisas, mas aquilo que você quer que ela faça.

As pessoas dão vazão as suas intenções apoiando-se em crenças, que tanto podem ser momentâneas, quanto estarem incrustadas no arcabouço profundo do cérebro. Estas dizem respeito à maneira como o mundo é e àquilo que esperamos que aconteça em função de determinada ação. Acredito que a garrafa metalizada lá de casa contenha água em seu interior e, por isso, realizo o ato de virá-la sobre o copo para satisfazer minha intenção de tomar uns goles.

Quando um ato intencional produz um desfecho esquisito, do tipo a garrafa soltar café e todo mundo rir, a crença de base encolhe-se frente às alternativas.

Se a coisa se repete demais, ela some.

Tal como as grandes visões de mundo, a vida das crenças individuais depende de nossa atenção e respeito, o que as torna profundamente competitivas.

As intenções também precisam se virar para aparecer. A vantagem em relação às crenças é que temos conceitos bem definidos para falar delas: quando escolhemos executar uma intenção ao invés de outras dizemos a escolhida tem uma utilidade esperada maior do que as concorrentes.

Isto simplifica a ideia de que o retorno subjetivo esperado de dar vazão a mesma supera o das concorrentes, nas poucas horas do dia em que agimos como chimpanzés e todos os outros animais; afinal, sob este critério, são todos racionais.

No mundo da inteligência artificial as coisas não são em nada diferentes, conforme a intenção de priorizar algo em detrimento de alguma outra coisa é inerente ao uso deste tipo de tecnologia e pode ser associada a uma ou mais crenças sobre como o mundo é e aos efeitos de se proceder desta forma.

Considere o exemplo do sistema que vem ajudando juízes a definirem tempo de encarceramento por meio de escores; seus aspectos matemáticos têm menos a revelar sobre sua essência do que a resposta à pergunta: qual a intenção que seus outputs perseguem?

A intenção primária pode ser reduzir a taxa de reincidência criminal, aumentar o sentimento de desforra, também pode ser o fim da violência nas prisões, ou o combate às disparidades socioeconômicas. Muitas outras coisas também podem ser.

Por trás de todas elas, é preciso que esteja a crença de que tempo no xadrez realmente contribui fortemente para a satisfação do propósito, ou qualquer legitimidade para injetar as recomendações do sistema no mundo real serão abolidas de antemão.

O aprendizado de máquina é aplicado para assegurar que uma intenção imponha-se sobre outras, a partir da premissa de que tem utilidade maior.

Poderia ser a intenção de aumentar o sentimento de desforra, mas ela é de diminuir a violência; logo, o sistema tenderá a puxar o período de encarceramento para baixo. E vice e versa. Filosoficamente, o sistema é um processador de funções utilidade.

Grande parte das mais fleumáticas disputas ideológicas da nossa sociedade têm a ver com a função utilidade que predomina na mente daqueles com poder de implantar as versões low-tech desses sistemas.

Por exemplo, certos extratos da direita assumem que a intenção mais elevada é a punição do comportamento criminoso, enquanto certos extratos da esquerda assumem que é a redução da criminalidade, sob a bandeira dos direitos humanos.

A rede neural artificial ou natural aplicada pelo primeiro grupo, por definição, priorizará a minimização da impunidade; logo, ela será particularmente suscetível a condenações excessivas. Já no segundo grupo, a rede deverá ser bem mais conservadora, o que na prática significa que poderá deixar criminosos escaparem impunes. A tolerância a cada um desses erro intrínsecos àquilo que cada lado quer otimizar é o que a gente vê as pessoas debaterem raivosamente, sem sistema ou clareza.

Tá aí a razão porque prefiro evitar esse tipo de debate: não estou aqui para discutir suas funções utilidade – para isso existe terapia – mas para tentar expor alguns pontos que valem a despeito delas.

Um grande problema dessa história toda é que, na verdade, a maioria dos juízes tem pouco domínio sobre o que está se passando. A mente em que jaz tal função utilidade não frequenta tribunais. Ela costuma repousar sobre a base do crânio de empresários da área de risco e crédito.

Estes, por sua vez, nem sempre têm formação para pensar a justiça com a profundidade de um desembargador, sem contar o fato de que alguns outputs são bem mais viáveis e baratos de se produzir do que outros.

Consideremos um exemplo. Eric Loomis foi sentenciado a seis anos de prisão por meio de uma sentença apoiada por um algoritmo chamado Compas, vendido para o governo americano pela empresa Equivant. Respondendo àquela pergunta crítica posta acima, a intenção que seu uso desenovela é a diminuição da taxa de reincidência criminal e isto é feito a partir da atribuição de um escore para cada condenado.

Não é possível saber o que exatamente é utilizado pela Equivant, já que o sistema é patenteado, mas, uma curiosidade: participei do maior estudo até hoje envolvendo internos que reingressaram no sistema da Fundação Casa e sintomas psiquiátricos. A única correlação encontrada foi com abuso de drogas (crack-cocaína).

O ponto a se ter em mente é que inexiste a possibilidade do juiz emparelhar intenções, escolher aquela que pareça lhe fazer mais sentido e, então, adotar um escore.

A Equivant vende esse daí; outras vendem alternativas que não diferem muito. Neste momento, é aderir à função utilidade do fabricante ou não contar com inteligência artificial alguma; é aceitar que vamos melhorar o mundo perseguindo a redução da reincidência ou nada. Está aí o ponto mais relevante acerca das intenções que se manifestam quando o Compas cospe um número.

 

O problema da reiteração de padrões discriminatórios

Uma questão completamente diferente e que, ao contrário desta que apresentei acima, vem sendo discutida em diversos círculos, é a da presença de vieses intrínsecos nos algoritmos em uso.

Por exemplo, uma equipe do Think Tank ProPublica analisou os desfechos de dois anos de uso do Compas (amostra de 10.000 presos) e chegou à conclusão de “acusados negros têm o dobro de chance de serem classificados com alto grau de reincidência, quando comparados com brancos, que por sua vez têm 63% mais chance de serem erroneamente classificados como portadores de baixo grau de reincidência, quando comparados com negros”.

Este tipo de problema tem raízes profundas. Uma delas é o fato de estar inscrito no DNA do aprendizado de máquina, que o futuro repete o passado e os semelhantes fazem coisas semelhantes. Assim, se os dados que expressam esse passado e esses semelhantes introduzirem vieses, o sistema irá se tornar inteiramente comprometido.

Imagine uma tabela listando todas pessoas presas na pequena Broward County (Florida, EUA), durante alguns anos, com colunas como data de nascimento, país e cidade de nascimento, CEP de residência, estado civil, registro na carteira de trabalho, nível de escolaridade, além de respostas a perguntas como “algum dos seus pais já foi mandado à prisão?”, “quantos amigos ou conhecidos seus usam drogas?”, quão frequentemente você brigava na escola?” (essas perguntas de fato estão lá) e, claro, reincidente: “S/N”.

O escore que o juiz vê na tela é uma medida do acoplamento de cada sujeito fichado às características mais comuns naqueles em que se lê “S”.

O detalhe é que não se trata de uma receita em que as diferentes dimensões são somadas linearmente; as combinações podem ser bem complexas; por exemplo: se o sujeito tem entre 18 e 23 anos, nasceu fora do país e disse que brigava na escola, a chance de reincidir será alta, mas ela diminuirá sensivelmente se este declarar que não conhece ninguém que usa drogas, exceto se já reincidiu.

Uma coluna que não está presente é “raça”, nem tampouco há perguntas sobre isso.

Vieses discriminatórios não costumam entrar pelas vias mais diretas; eles surgem conforme a série histórica utilizada é oriunda de um contexto em que a discriminação impera ou imperava.

Às vezes é muito simples, não sendo necessário mais do que uma variável para aquilo que foi deixado de fora pular de novo para dentro; por exemplo, dada a segregação geográfica informal existente, CEP e raça podem querer dizer a mesma coisa. Às vezes, as relações são um pouco mais complexas; por exemplo, naquele CEP existe 50% de negros; as escolas, todavia, contam uma história particular: todos os jovens que não são negros ou latinos se formam. Como quase não há latinos no perímetro coberto, dizer que o sujeito do pedaço não se formou é quase o mesmo que dizer que ele é negro.

Um fato digno de nota sobre estas combinações é que, na maioria dos casos, nem quem criou consegue inferir aquilo que está sendo usado pelo algoritmo. É aí que devemos deixar o enfoque nos dados que o sistema usa para aprender e se preocupar com o fato de também existir algo imperfeito (diz-se sub-ótimo) na tecnologia adotada.

Tal como se dá em relação à ausência de perguntas sobre raça no Compas e outros algoritmos, aqui o problema tão pouco reflete uma atitude varzeana pura e simples.

A questão é que o processamento dos dados é distribuído; um neurônio de um algoritmo pode estar processando uma fração de uma variável, com outra fração de uma segunda e assim por diante – neste ponto, é bem parecido com o que acontece no nosso cérebro. Há uma incompatibilidade entre a nossa capacidade interpretativa, situada em um nível elevado, gestaltico de entendimento e aquilo que cada neurônio de uma rede processa.

Been Kim (MIT/Google) apresentou uma possível solução para este problema na última MLconf (Machine Learning Conference), que aconteceu em São Francisco no ano passado. O modelo que ela criou chama-se Concept Activation Vectors (TCAV) e pode ser conhecido aqui.

A ideia, basicamente, é de um algoritmo que constrói essas representações para que a gente possa ver o que está se passando lá no plano dos neurônios. É mais ou menos o que faz a nossa consciência sobre determinadas parcelas do cérebro. Existem outros. Ainda é cedo para dizer se algum vai se popularizar, mas a proliferação deste tipo de software reforça a tese de que as pessoas estão se movendo para superar essa situação bizarra, sem ter que voltar à idade da pedra, tesoura e excel.

Em outro nível, a solução pode passar pela admissão de que não é viável purificar completamente os dados e algoritmos para que o sistema como um todo funcione com total isenção, em prol da adoção de um segundo algoritmo, exclusivamente para identificar vieses no primeiro. Só o tempo dirá.

 

Dando aos magistrados o poder de expressar suas visões através do código

Intenções abrigam-se sob a casca de sistemas que visam apoiar decisões jurídicas, queiramos ou não. Enquanto os magistrados permanecerem incapazes de injetar no código suas respectivas funções utilidade, o judiciário como um todo permanecerá restrito ao papel de cliente, quando da adoção da inteligência artificial.

Essa situação de cliente está em contradição com o fato de que os magistrados têm algum espaço para expressarem suas visões de mundo através do tamanho da pena (dosimetria), desde que respeitem limites mínimos e máximos (teoria das margens), aspectos objetivos do caso e assim por diante. Aliás, não há nada de novo na prática do magistrado considerar, por exemplo, a chance de reincidência criminal (a la Compas) para a fixação da pena, a despeito do fato de também existir um movimento forte em sentido à homogeneização deste tipo de conduta e de todas as outras.

Uma situação que ilustra bem isso é a que se deu quando o Habeas Corpus de um assaltante convicto chegou à 5a. turma do STJ. O advogado argumentava que a pena tinha sido aumentada com base em critérios inidôneos. O relator do caso respondeu que o tamanho da pena é uma decisão do juiz, que legitimamente utilizou critérios como a tendência do sujeito à reincidência criminal.

Frente a este cenário, a solução que me parece melhor é o próprio Estado desenvolver um sistema de apoio decisório baseado em inteligência artificial, com as seguintes características:

 

  1. Ter sua construção condicionada à realização de uma pesquisa junto aos magistrados (priorizando criminalistas) para determinar aquilo que mais recorrentemente surge como dimensão a ser maximizada através da dosimetria.
  1. Apoiar-se em simulações capazes de mostrar a incorporação destes princípios.

Aqui está certamente a parte mais complicada de todas, não por seus aspectos matemáticos, mas porque só tem alguma chance de funcionar se os encarregados verterem-se sobre os milhares de estudos jurídicos existentes sobre o tema para extrair entendimentos neste momento de ausência de dados. Mais do que um ou outro doutorado, é possível criar uma área inteira em torno desta questão.

Na minha visão, o ideal é que, conforme este esforço evolua, o foco mova-se em sentido à conversão da própria teoria do direito em diretrizes implementadas no código dos algoritmos.

Vale notar que, de maneira modesta, já estamos fazendo isso em relação à economia, no desenho dos chamados contratos inteligentes em sistemas de blockchain. Eu mesmo estou com um time dedicado a isso.

  1. Permitir ao magistrado customizar a função utilidade, a partir de sua visão de mundo, caso a caso. O resultado será dado por diferentes escores, cada um deles consonante com um conjunto pré-estabelecido de aspirações filosóficas e sociais.
  1. Contar com dois painéis adicionais: um em que o profissional possa ver simultaneamente todas os escores que o sistema é capaz de produzir e outro com uma estimativa da pena média atribuída por todos os outros magistrados utilizando o sistema. Esta última parte deve permitir encontrar como cada um decidiu na prática nos casos usados para esta estimativa, simplesmente clicando sobre o gráfico.

Esse seria uma estaca zero minimamente adequada. Porém, tal sistema continuaria sofrendo do grave problema de usar a foto (escore), ao invés do filme (monitoramento). Isso não é desejável por razões que expliquei em meu ensaio da semana passada, ao mesmo tempo em que impõe um desafio muito delicado já que um Estado que atropela a privacidade para controlar a criminalidade através de estratégias de monitoramento (o malhado Estado-Pan-Óptico) é pior do que outro, totalmente analógico.

Antevejo duas estratégias relativamente simples para capturar o filme sem sequestrar a privacidade.

A primeira envolve o monitoramento de dados extrínsecos à ação do réu, utilizando-os para responder à seguinte pergunta: “quanto a atitude desta pessoa é estatisticamente desviante?”.

Na minha visão, um monitoramento continuado da criminalidade nas diferentes regiões do país, associado a indicadores econômicos poderia ajudar o magistrado a inferir o quanto o contexto tem de efetiva importância na ação individual.

Não é nada que faça sentido aplicar indistintamente. Mas, na medida em que o magistrado acredite que, por exemplo, em uma época de especial penúria na qual os furtos estão crescendo, a ação individual de um furtador ao menos em parte reflete mais essa tendência do que seus brios criminosos – e vice e versa – ele poderá usar a opção “ponderar pelo contexto”, antes que alguma recomendação apareça em tela.

Por exemplo, o acusado furtou algo de baixo valor (dois queijos); o juiz entende que deve aplicar o “princípio da insignificância” o qual diz que…bom, é óbvio.

Um ano depois, o mesmo sujeito furta outra coisa menor (uma caixa de leite); se o juiz tivesse apoiando-se no algoritmo da Compas, ele provavelmente veria na tela um escore alto para o réu (dado que, tendo reincidido uma vez, suas chances de fazê-lo novamente vão para o espaço) e, mais gravemente, o sistema incorporaria o perfil do típico ladrão de galinhas entre aqueles que reincidem, fazendo recomendações mais duras para pessoas dotadas de características semelhantes (leia-se: pobres, moradores de regiões pouco urbanizadas, muitas vezes passando fome).

Em contraste, um monitoramento como este que descrevo acima faria o oposto, em linha com a visão do STF que a reincidência não agrava a insignificância.

A segunda sugestão é mais centrada na pessoa. No meu entendimento, após o encarceramento, os dados de comportamento deveriam continuar sendo inseridos no sistema (e armazenadas em um blockchain), o que por sua vez deveria produzir recomendações relacionadas a progressões de regime. Assim, o juiz teria a sua disposição este acompanhamento da jornada daquele julgou e, se quisesse, poderia ativar notificações para acompanhar mais de perto os casos de interesse.

Isso provavelmente ajudaria a desafogar um pouco o sistema penitenciário. Em paralelo, os presos teriam um incentivo claro para se comportarem adequadamente, uma vez que saberiam que, para além da subjetividade do juiz e do charme de seus advogados, existiria um sistema baseado em dados dando apoio decisório a decisões críticas para suas vidas.

O uso de sistemas de apoio decisório baseados em inteligência artificial está crescendo rapidamente. Em breve, deverão fazer parte da rotina dos magistrados brasileiros.

Este movimento é mais uma manifestação da hegemonia da visão de mundo que diz que devemos usar manifestações extra-cerebrais de inteligência, mesmo em situações envolvendo decisões complexas. Uma parte substancial da sociedade discorda, mas ela é insuficiente para barrar a tendência.

Acredito que a maior parte do mal-estar não esteja relacionado ao aprendizado de maquina em si, mas ao fato de que esses sistemas oferecem espaços reflexivos extremamente exíguos, conforme demonstrei em relação ao Compas, paradigma para diversos outros.

Assim, segue que está no interesse de toda a sociedade a construção de sistemas que ofereçam espaço para que os magistrados possam selecionar a visão de mundo de sua preferência e vê-la surgir através do código, como um tipo específico de escore ou recomendação.

Conforme procurei demonstrar, é menos complicado do que parece.

]]>
0
O Estado pela inteligência artificial http://visoesdofuturo.blogosfera.uol.com.br/2019/05/05/o-estado-pela-inteligencia-artificial/ http://visoesdofuturo.blogosfera.uol.com.br/2019/05/05/o-estado-pela-inteligencia-artificial/#respond Sun, 05 May 2019 11:22:54 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=52

Ação assustadora à distância

Paula não se conteve e chorou a ver que havia sido selecionada para participar do Relativity, o programa aeroespacial mais importante do mundo. Recomposta, lançou-se à procura de Silvia, na lista. Não estava. Um tom soturno abateu-lhe o sorriso. Pensou: voando às franjas da velocidade da luz, para ela, vou e volto rapidinho. Quando eu chegar, não seremos mais gêmeas. Quer dizer, seremos, mas não no sentido mundano em que exercemos nossas similaridades como uma forma de diversão. Eu serei a gêmea-titia!

E quando essa ideia parecia-lhe bizarra o suficiente, uma mais profunda abateu-lhe: de lá, a Terra e suas coisas também passarão rapidinho por mim. Esses anos todos da minha irmã irão num estalo. Quando eu chegar, ela é que será a gêmea-titia!

A visão einsteiniana do Universo é considerada das mais fabulosas da história do pensamento, não apenas por seus aspectos práticos e sua matemática sofisticada, mas por ter dado origem a muitos paradoxos e quebra-cabeças mentais que desafiam o senso comum. Alguns são falsos, como este acima, mas outros são verdadeiros, conforme o pessoal que lida com aceleradores de partículas vêm demonstrando.

Um desses desafios à visão intuitiva do mundo que formamos durante os nossos primeiros anos de vida é que o tempo não é uma medida absoluta, que pode ser reduzida àquilo que o visor do celular mostra. O tempo pode se contrair ou se dilatar, o que se torna particularmente fascinante quando aplicado ao futuro.

O ano é 1931; enquanto Einstein é recebido nos Estados Unidos como uma espécie de estrela do rock científico, inspirando adoração a partir da relatividade, a física quântica igualmente estabelece-se no seio do establishment científico.

Surpreendendo-se com a hipótese de que uma partícula poderia afetar outra, do outro lado do mundo, sem o suporte de nenhum elo comunicante (entrelaçamento quântico), o representante encarnado da inteligência celebremente chamou o fenômeno de ação assustadora à distância (história deliciosa que poderia ter sido outra).

Pena ele não ter vivido para conhecer a física quântica da atualidade.

Ao passo que uma nova indústria soergue-se para a construção de computadores que convertem o entrelaçamento em q-bytes, propostas conceituais cada vez mais ousadas tomam parte no debate.

Entre estas, difícil pensar em alguma que supere a retrocausalidade, ideia que não é nova, mas só agora está sendo levada a sério, de que consequências podem influenciar suas causas, neste universo. (Aqui vai a versão científica do assunto; aqui, um vídeo de divulgação curto e descolado)

Há gente dizendo que a retrocausalidade pode ser uma das peças faltantes no quebra-cabeças quântico, aproximando-o da relatividade, mas isso é tão impenetrável quanto a mente científica do Doutor Emmett Brown, que justamente queria explorar esta suposta propriedade, usando coisas bem maiores do que as quânticas.

 

A proliferação dos futuros decisórios

Ainda não existem provas experimentais da retrocausalidade. Neste ponto, ela está no mesmo nível de especulação em que um dia esteve a ideia de que o tempo pode passar em velocidades diferentes para as diferentes pessoas – parábola da modernidade estonteante de cem anos atrás, em que, por exemplo, sob a tundra gelada, combatentes russos dormiam aliados e acordavam soldados bolcheviques.

O que dá para notar é que, se um dia o ápice do frisson científico deu-se com a relatividade do tempo em si, hoje o interesse está forte sobre o futuro, sobretudo a possibilidade de mapear tudo aquilo que pode acontecer, em determinadas condições.

Tal como há cem anos e sempre, concepções conexas pela superfície dão as caras em áreas menos puras, sugerindo que esta ideia de mapear aspectos do futuro está exercendo certa hegemonia sobre as ideias concorrentes, na luta pela atenção das mentes contemporâneas.

Isso fica claro especialmente evidente quando o assunto é tomadas de decisão, área que está em transformação profunda, depois de quase vinte anos sob os efeitos da noção hegemônica anterior, a qual diz que as pessoas decidem de maneira rápida e frugal, conforme respondem a experiências afetivas imediatas, o que as torna pouco racionais.

De fato, pouco há para se questionar nessa ideia, que na prática funciona como um convite à realização de inventários comportamentais fabulosos. Por outro lado, o foco na maneira como as pessoas tratam opções aqui e agora ofuscou demais uma ideia fundamental: decisões não são apenas uma espécie de sintoma de nossa existência mundana limitada; elas servem para reduzir futuros alternativos.

Elas são dispositivos informacionais largamente distribuídos entre os organismos. Nos seres humanos, especificamente, as decisões têm como função mais difícil e prolongada, a criação de opções e, como função mais prática e assertiva, a redução inteligente das mesmas. Apenas a primeira parte nos diferencia entre as espécies.

Na minha visão, quando propriamente estimulada, a grande maioria das pessoas é capaz de pensar em alternativas, de construir seus futuros hipotéticos.

Mais do que qualquer outra atividade cognitiva, este tipo de construção dá a medida da criatividade de cada um, o que por sua vez poderia ser acompanhado por dentro da mente, usando uma rota que se inicia na recapitulação de fragmentos de experiência autobiográfica e termina na construção de cenários que surgem à consciência como se fossem inteiramente novos, ainda que forjados destes fragmentos.

Uma informação valiosa sobre como alguém irá decidir no futuro, muitas vezes, pode ser trazida ao tempo presente pelo mapeamento da maneira como se sente quando mentaliza cenários alternativos, o que justamente se explica conforme estes trazem na fórmula a biografia pessoal, cujos conservantes são os afetos.

Já apliquei este princípio diversas vezes, mas reconheço que ele só é adequado para decisões isoladas, enquanto no dia a dia, cada escolha funciona como um pequeno elo numa cadeia em que o número de futuros possíveis expande-se de maneira extremamente rápida, impondo uma agenda de problemas de outra natureza.

“Mesmo que tenhamos apenas duas hipóteses para escolher por minuto, em menos de meia-hora teremos catorze milhões de futuros possíveis; em menos de um dia, o número de futuros ultrapassará o de átomos no universo”, exemplifica o professor Mile Gu, do Centro de Tecnologia Quântica da Universidade de Singapura.

No campo da física, onde as palavras seguem as que conhecemos, sem que se possa dizer o mesmo sobre os fatos em discussão, a importância de lidar com futuros que se proliferam de maneira exuberante vem impulsionando um novo tipo de tecnologia disruptiva: a inteligência artificial quântica. Fica a dica sobre o que vai estar em alta em uma década.

Ao passo que a inteligência artificial quântica permanece insipiente, o problema mais relevante que procura resolver mostra-se tão relevante quanto universal: conhecer todos os estados possíveis de algumas coisas para, literalmente, mapear seus futuros alternativos. Para isso, uma equipe da Universidade de Singapura, em parceria com o Centro de Tecnologias Quânticas da Griffith University, na Austrália, criou um tipo específico de processador quântico, cuja descrição recente encontra-se aqui.

 

Redução de incerteza: preferência transnacional

Enquanto o universo da ciência pura trata futuros num spin quântico, mais ou menos como Daiane dos Santos, o do conhecimento aplicado coloca em primeiro plano o fato de que existem limitações ao uso destas ideias na vida prática, tal como a conhecemos hoje em dia.

A principal delas está longe de representar verdadeira objeção, mas acaba cumprindo este papel, de maneira involuntariamente. Esta é a ideia de que o esforço de reconhecer os futuros alternativos que podem se dispor a nossa frente não reduz incertezas sobre o que de fato vai acontecer, mesmo que só nos restem duas opções.

A grande verdade é que, no extremo oposto dos físicos, a redução de incertezas converteu-se na obsessão mundana do momento.

A seu favor, é justo considerar que se naquele cenário de uma escolha por minuto, fosse dito que a opção à esquerda tem sempre 99% de ocorrer, teríamos menos de uma chance em um milhão de terminarmos o dia felizes por termos acertado todas.

Entendo, mas não me satisfaço.

Seja em nível individual ou em nível coletivo, acredito que soframos mais por falharmos em alinhavar futuros possíveis, do que por não conseguirmos determinar a probabilidade de ocorrência daqueles que conseguimos imaginar.

Aprender a lidar com o mundo a partir desta prerrogativa é o que venho chamando de a nova filosofia da mente decisória, espero um dia deixar de estar sozinho nessa.

Surpreende-me o quão fortemente hegemônica tornou-se a ênfase na atribuição probabilística a desfechos específicos, em contraste com a ênfase na enunciação de futuros hipotéticos.

Tal tendência apoia-se no uso de sistemas de suporte decisório (decision support systems – DSS). Estes são sistemas analíticos baseados em algoritmos/inteligência artificial, que entregam uma função probabilística ou “escore”, dentro de um outro sistema, ajudando-o a tomar uma decisão. Pouca coisa invisível é tão relevante.

Quando a API do Serasa retorna um escore de crédito para dentro do sistema de uma financeira que por sua vez apresenta um “reprovado” na tela do analista, dizemos que o sistema de suporte decisório do birô gerou inteligência financeira.

Cadastro positivo tem a mesma mecânica e função, com a diferença que se propõe a servir de estímulo para que determinado padrão comportamental seja reiterado, por meio do que chamamos de reforço negativo (você deixa de fazer o que não quero, eu deixo de pegar no seu pé).

Nos Estados Unidos, existe uma preocupação constante na classe média eternamente endividada de elevar escores de crédito, em birôs como Equifax, Experian e TransUnion, que aplicam sua inteligência para dizer sim ou não, sob os mesmos princípios.

Estas diretrizes binárias vêm se tornando determinantes para a modelagem e planejamento de praticamente todos os aspectos da vida social humana, inclusive os que se encontram sob a tutela do Estado.

Inspirado pelos cientistas que se preocupam em fazer futuros proliferarem, acredito que possamos conceber alternativas superiores, no tocando à atuação do mesmo.

O subgrupo mais inflamado entre aqueles que concordam comigo neste ponto é absolutamente taxativo: é antiético desenhar incentivos para estimular as pessoas a decidir isso ou aquilo (nudges) e, tanto quanto, colocar a inteligência artificial a serviço de processos decisórios que representem a ação do Estado.

Quando ouço esse argumento lembro que da massificação do uso do cinto de segurança à promessa de não ter que dirigir progredimos por meio das tentativas de entender o que as pessoas decidirão fazer, quando chegar a hora. A questão de interesse, acredito, é como melhorar esse processo, que dificilmente será revertido.

 

O Estado através do código

Minha tese é de existem dois erros mais sérios na maneira como governos redor do mundo vêm utilizando sistemas de suporte decisório baseados em algoritmos/inteligência artificial e que a solução dos mesmos pode melhorar nossa relação com essa tecnologia que tão pouca gente vê funcionar.

De acordo com essa tese, estes erros não apenas emergem por questões políticas, mas por causa de limitações metodológicas, que de um lado têm a ver com atrasos conceituais facilmente demonstráveis e, de outro, com o fato de que os algoritmos disponíveis foram todos concebidos para responder a desafios específicos da iniciativa privada, os quais são diferentes em ao menos um aspecto mais profundo, dos desafios que cabem ao Estado.

Finalmente, aos erros metodológicos soma-se uma questão de visão e propósito, intimamente relacionada ao contraste de obsessões acima enunciado.

O objetivo central deste ensaio é enunciar estes erros e compartilhar uma nova visão sobre os algoritmos de suporte decisório aplicados pelo Estado.

Se, antes de um jogo de futebol, alguém me perguntar qual entre dois times mais provavelmente  ganhará, eu certamente pedirei para olhar a série história de embates recentes.

Escolheria quem, nos últimos embates, ganhou mais vezes, sem pensar duas vezes.

Por outro lado, se também me fosse permitido assistir a uma parte da partida antes de dar o meu chute, eu tenderia a dar importância decrescente à série histórica e crescente àquilo que vejo se desenrolar, até o momento em que exibição não me fosse mais permitida.

Desfechos tanto concentram quanto reduzem informações. Basta lembrar que “o momento de eternidade do futebol”, como Nelson Rodrigues (1970) chamou o quase gol de Pelé, em Brasil vs. Checoslováquia, não entra nessa conta.

Em contraste, ao desenvolvermos nossos juízos no tempo, aproximamos a hipótese sobre quem tem mais chance de ganhar à avaliação de quem merece mais isso.

Da mesma maneira, ao criarmos algoritmos de risco ou crédito para bancos ou operadoras de cartões devemos considerar que a tarefa principal resume-se à determinação daqueles que devem receber um sim, em contraste com os que receberão um não, em seus pedidos de crédito, com base em informações históricas, usando um algoritmo.

Em geral, não é possível saber se aquela pendura de R$ 10.000,00 ocorreu porque o cliente tomou um calote do primo malandro ou porque é jogador patológico.

Tudo o que dá para fazer é pegar essas variáveis correlacionadas à inadimplência e tratá-las tal como se enunciassem causalidade.

Agora, se for possível acompanhar os clientes ao longo de suas jornadas, poderemos nos dar ao luxo de conceder o crédito àqueles que numa primeira análise revelaram alto risco de inadimplência, desde que também desenhemos incentivos (nudges) que evitem uma escalada irrefletida de débitos, mitigando a chance e o tamanho do tombo.

Ainda não será possível discriminar correlação de causalidade – essa limitação fundamental não é corrigível, neste contexto – mas será possível tratar as variáveis em perspectiva, evitando que sirvam de pivô para decisões contraproducentes tanto para quem quer conceder, quanto quem quer receber o crédito.

Um caso está mais para foto (escore), o outro, mais para filme (monitoramento).

No primeiro, devemos nos pautar pela maximização do retorno esperado, através da aplicação de uma função probabilística que gerará um desfecho binário; no segundo, até podemos replicar esta estratégia mas, principalmente, podemos tratar o fenômeno enquanto ele se desenvolve de futuro em futuro, assumindo que o retorno esperado não precisa ser escrito na pedra, em determinado instante.

O primeiro e mais crasso erro metodológico das aplicações preditivas do Estado é tratar como foto aquilo que faz N vezes mais sentido como filme. A consequência prática mais fundamental é o aumento da frequência de eventos contrários ao interesse mais amplo da sociedade, sob a assunção implícita de que aqueles dois ou três desfechos setados no algoritmo são mesmo incontornáveis.

Tal como vitória, derrota e empate.

O segundo erro revela-se em contraste ao fato de que, nos setores de risco e crédito, aquilo que mais profundamente dá a marca da mão invisível é a possibilidade do capital blindar-se de eventuais externalidades socioeconômicas, surgidas da própria aplicação do algoritmo.

Existe uma revolta meio irrefletida em relação ao fato de que o dono do banco quer maximizar o retorno esperado, tal como se o dono do Café Vegano da Praça da Maromba não quisesse o mesmo. O sintoma existe, mas o diagnóstico parece errado.

O ponto verdadeiramente sensível é que a decisão de dar ou não crédito, em consonância com uma série de outras relacionadas às condições em que isso ocorre, não raras vezes gera uma segunda camada de eventos sociais e econômicos, com impactos significativos na vida do devedor, que não se espelham na vida do credor.

Isso é óbvio para qualquer economista, assim como tende a ser o fato de que o Estado não deve esperar que o dono do banco module suas decisões a partir desta constatação. Como qualquer outro cidadão, é esperado que ele o faça mais vigorosamente por meio de incentivos (nudges).

A questão é que o Estado não é uma instituição privada – e essa não é uma afirmação política, mas mera constatação. Se a aplicação do algoritmo gerar uma segunda camada de consequências, a avaliação de sua utilidade dependerá da incorporação dos efeitos em tal camada também. Há, enfim, um problema de translação: a lógica não pode ser a mesma, já que o plano dos efeitos também não é.

No mundo das políticas públicas, não há pias para se lavar as mãos.

Imagina que você receba um envelope contendo um convite para ir à “festa dançante da Isadora”. Apesar de achar o título meio estranho e não ser exatamente um pé de valsa, você assume que deve ser alguma brincadeira da sua amiga Isadora. E vai. Chegando lá, você descobre que a festa é de uma outra Isadora, que está completando oitenta anos de idade. Meio sem jeito de ir embora, você acaba aceitando o convite da anfitriã para dançar. E dança uma, duas, três. Neste momento, os convidados estão empolgados com a sua desenvoltura e habilidades. E aí é que o inesperado acontece: você mesmo se surpreende, dançando bem de verdade.

Funciona para o bem, funciona para o mal. No contexto, o erro é desconsiderar a possiblidade da análise preditiva plantar criminosos entre os que não são, com base num fenômeno descrito há mais de quarenta anos: discriminação estatística.

De maneira mais específica, o perigo é que nas camadas em que ressoam os desfechos algorítmicos, a política de incentivos reversos (estigmatização pela máquina) estimule aquilo que a incorporação da tecnologia imaginou combater.

Quando isso ocorre, somos forçados a dizer que a iniciativa falhou. Sem desculpas.

No final de 2016, os carros de polícia da cidade de Pittsburgh (Pensilvânia, EUA) passaram contar com um recurso a mais em seus computadores: mapas construídos por algoritmos contendo as microrregiões da cidade com maior probabilidade de ocorrência de crimes, dando origem ao chamado policiamento preditivo.

Neste mesmo ano, a notícia de que algoritmos  secretos estavam avaliando risco criminal e mandando as pessoas para a cadeia tornou-se trending topic entre juristas americanos (se você saber mais, leia este paper).

É esperado que, em breve, a vasta maioria das decisões judiciais ao redor do mundo seja apoiada em recomendações feitas por algoritmos, tal como a própria seleção daquilo que deve ser julgado primeiro.

O fator mais positivo compartilhado pelo policiamento preditivo e sentenças baseadas em algoritmos é a blindagem contra caprichos dos representantes do estado.

Por outro lado, sofrem dos dois problemas que enunciei, no que se assemelham a muitos outros que conheci até aqui.

De um lado, entregam recomendações na forma escore; foto e não filme.

Apenas para se ter uma noção do sentido disso, vale considerar que grande parte dos crimes de Pittsburgh decorre de dinâmicas conflitivas que escalam de acordo com as interações entre gangues que dominam diferentes sub-regiões, o que evidentemente passa ao largo do novo sistema, que geolocaliza pontinhos, numa representação estática, bem mais pobre do que aquela que pode nos dar o cérebro humano.

De outro lado, não computam o efeito de si mesmos sobre o fenômeno em foco, tal como se o fato dos policiais se relacionarem com a população do bairro – e as gangues e bandidos – sob o ponto de vista de que aquela área é barra pesada, não reforçasse tal tendência.

A mesma ideia aplica-se à determinação penal, que ainda mais fortemente tende a retroalimentar o viés que um dia se propôs banir. Por exemplo, considerando que homens negros de 18 a 23 anos efetivamente têm probabilidade maior de aparecerem nas fichas policiais, após a devida normalização demográfica, o sistema tenderá a assumir que João Pedro, que é negro e possui 21 anos deve ser julgado primeiro e eventualmente receber uma pena maior do que João Paulo, que é branco e possui 24 anos – um absurdo inadmissível, sob qualquer ponto de vista, o qual ajuda a explicar porque mais de cem organizações americanas de direitos civis juntaram-se num pronunciamento comum, enfatizando os riscos das decisões jurídicas baseadas em algoritmos (o pronunciamento pode ser encontrado aqui).

A multiplicando futuros por princípios anti-intuitivos

Definidos os problemas mais técnicos, podemos considerar a questão de visão que isso tudo traz à forja. Esse é exatamente o ponto onde aqueles catorze milhões de futuros alternativos que geramos em meia-hora tornam-se cruciais.

O fato de estarmos cada vez mais imersos numa prática de desenhos institucionais que são igualmente tecnológicos tende a ser automaticamente associado à ideia de desfecho, empobrecimento de sentidos e vieses criados pelos interesses de alguns.

Uma das bases para este juízo é o fato de que quando pensamos em tecnologia pensamos em programação, em intenções embebidas em sintaxe.

Não importa que esteja escrito “inteligência artificial”; que saibamos que isso significa menos código e mais abertura à transformação de si mesma, conforme exposta ao mundo. Não importa o fato de seu cérebro sintético ser como o de um extraterreste com quem podemos interagir.

Isso tudo parece ficar no plano da teoria e o que se consolida mesmo é a ideia de que sempre existirá alguma forma manipulação humana em jogo, de regra maliciosa sobre o certo e o errado e assim por diante.

Realmente, se assim o fosse, não haveria muito o que fazer exceto clamar pelo banimento total dessas geringonças, antes que impeçam o sol de surgir. Mas, vale lembrar, isso não precisa ser o caso, especialmente, se conseguirmos trazer os componentes de expansão intelectual dessas tecnologias, ao primeiro plano.

“Go” é um jogo chinês de cerca de 2500 anos, jogado em todo o oriente. Sua complexidade, superior a do xadrez, deu origem a milhares de cartilhas e livros, estudados por multidões, nestes últimos milênios.

Lee Sedol é um expoente moderno do Go, campeão mundial 18 vezes. Em 2016, ele enfrentou o sistema de inteligência artificial Alpha Go, numa sequência famosa de partidas. Perdeu, o que se tornou notícia ao redor do mundo.

Tão menos conhecidas são suas declarações acerca da experiência de jogar contra essa nova forma de inteligência artificial.

Segundo ele, o que caracteriza o algoritmo é o fato de não utilizar nenhuma das estratégias consagradas, mas antes proceder por padrões anti-intuitivos, completamente diferentes de tudo aquilo que se viu nestes últimos 2500 anos. Menos de três anos depois, a ideia de usar esse tipo de algoritmo para pratica a concepção de estratégias que se desviam radicalmente do tradicional disseminou-se entre os jogadores de Go, mimetizando o que já ocorria em outras áreas, como a física quântica.

A gente acha que sabe como as coisas poderiam ser se não fossem como são.

A gente é capaz de jurar que não precisa de suporte nenhum para desenhar os futuros mais interessantes que as condições presentes permitem. Do ponto de vista interior, isso é claro e universal, afinal, a criatividade é o verdadeiro inconsciente aflorado, lá na base dos nossos afetos.

Mas, se a gente seguisse mais a lição dos físicos quânticos e outros pensadores radicais, quando assumem que, justamente, um dos grandes desafios que precisam enfrentar para criar alguma coisa digna de nota é o de se despir de suas certezas intuitivas, talvez a gente fizesse melhor uso dessas tecnologias, colocando-as à serviço do nosso desejo de um futuro mais amplo e melhor.

]]>
0
O que, afinal, seria a internet do pensamento? http://visoesdofuturo.blogosfera.uol.com.br/2019/04/24/a-internet-do-pensamento/ http://visoesdofuturo.blogosfera.uol.com.br/2019/04/24/a-internet-do-pensamento/#respond Thu, 25 Apr 2019 00:42:38 +0000 http://visoesdofuturo.blogosfera.uol.com.br/?p=33

A semente da loucura

Chamava-se Daniel. Entre todos os juízes exóticos que já passaram por este mundo, nenhum atingiu tão elevado patamar de elucubração delirante, nem tampouco foi retratado com tamanha sofisticação e reverência, fora das fortalezas impenetráveis da escrita jurídica.

Isso se torna ainda mais interessante tendo sido ele conterrâneo (Leipzig, Saxônia) e contemporâneo (1855-1875) de Richard Wagner, compositor que por meio de suas óperas catárticas teria plantado a semente da loucura que desabrochou no óbito misterioso do Rei Ludwig II da Baviera e instilado a morte por delírio de muitos outros, como Ludwig Schnorr von Carolsfeld, primeiro cantor a assumir o papel de Tristão, na famosa ópera em que este último se ferra por Isolda, a qual naturalmente acaba tendo o mesmo destino.

Pois do outro lado da fortaleza do direito – onde chegou ao cargo de presidente da alta corte de Dresden – Daniel foi tomado por um arroubo wagneriano e lançou Memórias de um doente de nervos (Denkwürdigkeiten eines Nervenkranken, 1903), limão que virou uma limonada nas mãos de Freud.

O pai da psicanálise queria expandir seus domínios para além das neuroses, explicando a origem e evolução das psicoses, o que serviu de estímulo para que usasse as memórias do juiz como substrato para teorizações que até hoje são consideradas “ousadas”, como a de que desejos reprimidos poderiam levar a mais absoluta e irreversível insanidade.

O ponto alto do relato incidentalmente imortalizado de Daniel é o de sua emasculação à revelia. De acordo com ele, a certa altura Deus decidiu transformá-lo em mulher, usando raios divinos que entrariam em seu corpo por meio de uma estrutura de vasos comunicantes, que parece um prenúncio biológico da internet.

Na imaginação hiper-realista do juiz, as pessoas estariam conectadas umas às outras por meio de uma complexa rede de nervos, que possibilitaria que mensagens atravessassem distâncias várias, até aterrissar em mentes remotas. Em situações perigosas e incomuns, estes vasos poderiam se conectar à área logada de Deus, resultando no maior quiproquó. E quando isso rola, Deus não deixa barato.

A mitologia das mentes comunicantes

Longe de qualquer hospício (asilo, como eram chamados), essa ideia de conexão mental ocupa lugar especial entre nossas representações de presentes alternativos e possibilidades de futuro. Geralmente, com características distópicas.

Sejam as mentes presas na Matrix, que Neo descobre depois de tomar a famosa pílula vermelha; Jake Sully, que primeiramente controla um avatar com o auxílio de algumas tecnologias, a partir de sua própria mente, para depois fundir-se com ele; ou o Professor Xavier, mutante poderoso a ponto de prescindir da força física, o mito permanece o mesmo. Não é à toa que estes três estão entre os mais reverenciados heróis da nossa era.

Experiências religiosas de todos os matizes também evocam conexões remotas entre as pessoas, ao passo que, no plano da facticidade e seus simulacros, nenhuma habilidade cognitiva mostra-se mais intrigante do que a telepática.

Quem tiver tempo, deve ler o relatório ultra-top-secret que o governo americano liberou há pouco sobre os experimentos feitos com Yuri Geller (não espalhem). Vai entender que truque é esse que o cara dá, dentro de uma sala blindada, com três professores de Stanford observando e cinco agentes da CIA prontos para mandá-lo de volta para casa,  embalsamado.

Geller não foi um caso isolado. Por anos a fio (1975-1995), o RH do Programa Stargate (CIA) tinha vagas para “psychic readers” (videntes), cuja missão ia do mapeamento mental de inimigos à descoberta de pessoas desaparecidas. Muita gente saída desse programa criou metodologias baseadas na ideia de que, em algum grau, todos temos podemos acessar a mente e os olhos dos outros, uma vez que estaríamos conectados por alguma internet não mediada, como a da Matrix, Avatar e, claro, Daniel Schreber.

A vida social como representação de outrem dentro de nós

Na última década, desenvolvi a hipótese de que a prevalência desta manifestação do imaginário através de veículos, objetivos e eras deita raízes na própria maneira como a mente funciona.

Considere, por exemplo, essa ideia-chavão: “de cima de uma duna, o sol poente de Jericoacoara é tão belo que você se perde nele de olhos fechados, imaginando-o”. Por que raios fechar os olhos e imaginar, quando a vista é tão bela? A resposta é simples: observar e acompanhar mentalmente aquilo que instantes atrás era observado são atividades contínuas na mente, as quais utilizam praticamente as mesmas áreas cerebrais.

Aquele que imagina, da cena não perde nada, ao passo que com isso consegue acomodá-la melhor em seus espaços de representação intimista.

A mesma coisa se dá na relação entre o ato de se escutar falando e a subvocalização, que é aquela vozinha sem decibéis, que usamos em nossos diálogos interiores. A voz de fora e a voz de dentro irmanam-se. Entre elas, não há muito mais do que algumas inibições a serem computadas.

O ponto alto deste raciocínio é a noção de que a proximidade entre as experiências de origem interna e externa igualmente serve à acomodação das intenções dos outros em nossa própria mente, na extensão das áreas cerebrais em que se registramos nossas próprias intenções.

Cada vez que compreendemos o que alguém quer dizer, a despeito de sua inabilidade para efetivamente chegar lá, cada vez que sacamos que por trás de determinada faceta dadivosa mora um vendedor ensandecido, cada vez que adentramos os medos e desejos, crenças e incertezas de outrem, toma forma uma das mais surpreendentes capacidades de que somos dotados, que é a de acolher o outro em espaços mentais da mais íntima natureza subjetiva, tal como se estivéssemos mesmos relacionados por uma internet de neurônios comuns.

A noção de conexões remotas entre humanos e destes com Deuses, enfim, emerge da própria maneira como a parte mental do nosso cérebro funciona. Trata-se de um verdadeiro invariante cultural, que se apoia em bases biológicas e por isso não deve nos deixar tão cedo.

Agora com vocês, o ceticismo

Uma conclusão deste raciocínio é que não podemos ser ingênuos ao associarmos representações do futuro – em qualquer época – à noção de mentes conectadas, a qual é simplesmente uma manifestação da nossa realidade social, mediada por um simbolismo de abrangência mitológica. Conexões remotas e misteriosas surgem e ressurgem, no mínimo, desde que o homem paleolítico pintava murais nas cavernas de Lascaux (sudoeste francês), há 17.000 anos.

A evolução de uma ideia pop

Refinado o grão de sal, há de se considerar que o ano de 2016 foi especial para este tema. Tendo por base uma pesquisa de quase uma década, um time de neurocientistas, liderado por Robert Freitas Jr., apresentou ao mundo o primeiro modelo conceitual de neuro-nano-robôs. Estes seriam pequenos automatas com capacidade de navegar por dentro do cérebro humano, sem lesioná-lo.

De acordo com esse pessoal, o futuro do cérebro chegará pelo desenvolvimento de três tipos de robôs: endógenos, gliais e sinápticos. Os primeiros residiriam dentro dos neurônios, monitorando sua atividade; os segundos habitariam a glia, que é a estrutura de sustentação do órgão, ao passo que os últimos ficariam colados às sinapses, que são as terminações que sustentam toda a transmissão de informação em nossa mente e nas partes não mentais do sistema nervoso.

As principais funções destes robôs seriam médicas: fazer diagnósticos precoces, o que naturalmente envolveria exportar dados lá de dentro, e reparar o órgão.

Em parte, por ser técnica demais e em parte por não abordar as questões imaginárias pelo ângulo mais excitante, o papo ali proposto não decolou entre jornalistas e formadores de opinião.

Porém a tribo global dos especialistas não ficou indiferente. A cada novo congresso, a cada nova lista de tendências, a ideia dessas interfaces homem-máquina galgava algumas posições e, com isso, novos entusiastas, dispostos a direcioná-la mais precisamente ao horizonte da nossa era, com seu inconsciente de futuros imaginados. E eis que finalmente a coisa toda ganhou o formato poderoso que se buscava, através da proposição de uma interface cérebro-nuvem ou, para ser mais direto, internet do pensamento (acesse o artigo seminal aqui).

O que afinal seria a internet do pensamento?

Internet do pensamento (B/CI) é a proposta de uma rede de transmissão de dados do cérebro para a nuvem e desta para o cérebro de outras pessoas. É a representação da ciência dos nossos tempos para muito daquilo que a ficção científica e mentes delirantes como Daniel Schreber asseguraram ter todo o sentido.

Entre seus proponentes, encontram-se figuras respeitadas como Mikhail Lebedev, da Universidade Duke e meu colega na Frontiers in Neuroscience (revista científica do grupo Nature), Nuno Martins, da Universidade da California e, como não poderia deixar de ser, uma pesquisadora da empresa do indefectível Ray Kurzweil, o cara que lidera algumas das principais discussões em futurismo e que você deveria pesquisar, caso nunca tenha ouvido falar.

Para que a internet do pensamento cumpra seu papel, deve ser capaz de realizar três grandes blocos de tarefas:

  • Receber e processar dados cerebrais em tempo real, convertendo-os em informação compartilhável numa nuvem.
  • Interpretar demandas por informações e imediatamente transmiti-las da internet para os neuro-nano-robôs instalados dentro do cérebro.
  • Conectar diferentes pessoas em seu íntimo, através da sincronização dos estados dos neuro-nano-robôs de seus cérebros (interface cérebro a cérebro ou “BTBI”).

De acordo com os colegas citados acima, a viabilização da internet do pensamento basicamente dependeria da capacidade destes robôs para operar como o código neural, velocidade de transmissão de dados compatível com o desafio (em torno de 5.52 × 1016 bits/sec), com latência próxima de zero e muita, muita capacidade de processamento.

Segundo eles, as primeiras versões desta tecnologia devem dar as caras nos próximos 20 ou 30 anos.

Transcrevo abaixo um pingue-pongue com o supramencionado Dr. Nuno Martins, português radicado nos Estados Unidos, primeiro autor do estudo inaugural no tema.

1. No seu entendimento, o que seria a internet do pensamento?

Dr. Nuno Martins: A internet convencional trouxe ao mundo uma plataforma para armazenamento e processamento da informação e do conhecimento humano que veio revolucionar o acesso à informação, democratizando-o. Neste momento, a informação é acessível, mas o acesso não é imediato. Um utilizador tem de dispor de um dispositivo externo (computador, tablet, telemóvel) para que possa aceder à informação. A partir de neuro-nano-robôs, a internet do pensamento irá permitir que o ato de aceder à informação passe a ser tão natural como quando pensamos e nos recordamos de uma memória. Com a internet do pensamento, o nosso conhecimento coletivo passará a ser acessível a todos, apenas com o pensamento, e sem dispositivos externos. Não será necessário escrever num teclado, ou tocar num ecrã para que possamos aceder à informação.

2. Em quanto tempo deveremos ter um protótipo disso? O que dará para fazer com esse protótipo? Quais são alguns dos grupos de pesquisa já trabalhando com essa prototipação?

Dr. Nuno Martins: Os timelines de qualquer tecnologia são sempre difíceis de prever. Mas terá muito impacto nesse timeline o financiamento que consigamos atrair para esta área especifica da investigação tecnológica.

3. Entre todas as dificuldades a serem vencidas, qual a maior do ponto de vista técnico e qual a mais filosófica/existencial?

Dr. Nuno Martins: Qualquer nova tecnologia acarreta com ela benefícios e riscos. O fogo, por exemplo, pode ser usado para aquecer uma família no inverno, mas também pode ser utilizado para queimar florestas e causar destruição. A neuro-nano-robótica trará tremendos benefícios para a humanidade. Tudo será feito para que esta tecnologia seja aproveitada para o fim de ajudar a todos. Ela ajudará a resolver alguns dos grandes desafios da área da saúde, educação, pobreza, etc. Esta nova tecnologia poderá também ter impacto na medicina, permitindo tratar a vasta maioria das doenças associados ao Cérebro Humano, como Parkinson e Alzheimer.

Quando o assunto é complexo, os pontos de vista afloram

A visão do Nuno é claramente otimista, o que não significa que esteja errada. Não obstante, é importante considerar que nem todos compartilham da sua visão. Isso ficou claro na bola que bati com Eric Kandel (Universidade Columbia), ganhador do Nobel de Medicina e Fisiologia de 2000. Eric é considerado por muitos o neurocientista mais importante dos últimos cinquenta anos.

1. Você acredita em um futuro em que algum tipo de implante ou robô possa ser posicionado dentro do cérebro, de lá transmitindo dados, detectando doenças e coisas do tipo? Se sim, quando você acha que os primeiros sinais desta tecnologia estarão disponíveis?

Dr. Eric Kandel: Eu não acredito que um implante ou robô que possa ser abrigado dentro do cérebro será desenvolvido tão cedo. Talvez, nunca o seja.

2. Você acha que algo deste gênero seria bom para a humanidade ou você vê riscos de que os mais privilegiados tenham acesso cedo, enquanto outros não tenham, aumentando disparidades sociais ao redor do mundo?

Dr. Eric Kandel: Eu não acho que seja bom para a humanidade que os mais privilegiados possam acessar qualquer tipo de tratamento antes dos outros.

Trabalho com interfaces cérebro máquina há cerca de dez anos, especificamente no domínio da leitura de ondas cerebrais e controle de interfaces “com a força do pensamento”, na universidade e fora dela. O princípio fundamental que aplico nessa área é o de que a intenção por trás de qualquer ação tem certos componentes neurológicos personalizados, que não mudam. Neste sentido, eles são tal como a escrita, cuja estilística permanece a mesma, a despeito daquilo que se escreva.

Partindo desta premissa, primeiramente procuro encontrar a estilística da intencionalidade para cada pessoa, a partir de suas ondas cerebrais. É menos complicado do que pode parecer.

Tendo feito isso, uso um tipo específico de inteligência artificial para medir o nível de engajamento intencional da pessoa em tempo real, e, com isso, permito que ela use essa “força do pensamento” para controlar coisas do mundo exterior. Por exemplo, um drone (carrinho, cadeira de rodas ou o que for) voará mais rapidamente (ou mais alto), conforme o engajamento intencional for maior.

Baseado em meus próprios estudos para fazer esse tipo de coisa e em reflexões sobre a natureza da comunicação neural, tenho uma posição intermediária a do Nuno e do Eric.

Acredito que viverei para ver robôs com capacidade de transmitir dados de dentro do cérebro. Não duvido que isso aconteça em 20 ou 30 anos. Estes dados permitirão diagnósticos, bem como outras coisas que não fazem parte da agenda central dos proponentes da internet do pensamento, como a reposição de partes de circuitos neurológicos e incremento cognitivo em portadores de déficits cognitivos, por meio da estimulação eletromagnética direta dos neurônios.

Indo mais longe, acredito que um encaminhamento natural da relação cada vez mais próxima entre inteligência artificial e neurociências é a criação de uma poderosa estação de processamento, que irá utilizar quantidades obscenas de dados extraídos do cérebro para se tornar cada vez mais capaz, melhorando sua interpretação dos próprios sinais cerebrais, enquanto aprimora a robótica por conta própria.

Neste ponto concordo com o pessoal da internet do pensamento, exceto em relação ao fato de que tal estação será uma nuvem. Ela mais provavelmente será um blockchain, assunto de uma série especial de ensaios que farei para vocês entenderem melhor como essa tecnologia revolucionária funciona e o que ela de fato representa para o nosso futuro.

Tudo isso contribuirá para o aumento da longevidade e qualidade de vida daqueles que tiverem acesso a tais tecnologias, assim como deverá impor um debate ético que já começa a se mostrar relevante, em outras searas.

Porém, tal não é nem será sinônimo de leitura do pensamento e, tanto menos, de transmissão de experiências, cérebro a cérebro. Eis a questão mais relevante que queria compartilhar com vocês, neste ensaio.

Da relação entre código neural e experiência e suas consequências para a internet do pensamento

Perguntar para o Eric Kandel o que ele acha dessa coisa toda não foi à toa. O Nobel que ele ganhou basicamente tem a ver com a demonstração de uma propriedade surpreendente das nossas experiências. Uma que eu tenho certeza que vai lhe parecer estranhíssima, ainda que não o seja para aquele seu antepassado animista, originário das florestas brasileiras do século XVIII.

Cada experiência memorável, cada memória de longo prazo armazenada em nosso cérebro tem uma relação com a matéria. Mais chocante ainda, esta materialidade molecular da memória é genética.

Quer dizer, a nossa biografia não é a mera estrutura digital de milhares de microfilmes que ressurgem à consciência. Ela depende de reações físicas no cérebro. O armazenamento de alguma coisa transformadora acontece porque genes são ativados e o estado cerebral responsável pela experiência em questão é amarrado por aminoácidos, que justamente permitirão que seja futuramente liberado à consciência.

Há um caminhão de consequências extraordinárias disso. Uma delas é que é possível passar certos tipos de aprendizados do cérebro de um ser vivo para outro. Aguarde que em breve vou fazer um ensaio sobre como isso funciona e qual o sentido mais profundo para a gente.

Outra consequência é que a mera transmissão de dados de neurônios para dentro da cabeça de outra pessoa tende a ser insuficiente para a reprodução da experiência de base do emissor, ou, para usar um termo mais preciso, para reproduzir a fenomenologia da mesma.

Imagine que você é um ex-policial que se afastou do emprego por estresse pós-traumático e que instalou neuro-nano-robôs em seu cérebro para ajudar a reparar determinados danos biológicos causados pelo estresse. Porque você estava sem grana, concordou em fazer um escambo bizarro e moralmente indecoroso, liberando suas experiências de mundo para que outra pessoa possa brincar de tê-las, mais ou menos como num parque de diversões movido a mescalina.

Em determinado momento, você escuta tiros. O som passa por diversos circuitos e finalmente chega ao córtex temporal, onde ganha o tratamento mais refinado. Dados de ativação de toda a circuitaria ativada até ali são imediatamente transmitidos para seu interlocutor remoto.

Para ele, trata-se de uma cena qualquer do mundo exterior; para você, do estopim de um mal-estar determinado por uma complexa atividade molecular que irá destravar algumas das memórias traumáticas que te afastaram do trabalho. As experiências de ambos serão muito diferentes. Isso vale para tudo.

Não é que exista algo extraordinário em toda e qualquer experiência que nos impeça de transmitir seus aspectos gerais para outrem; é simplesmente que ela não necessariamente se reduz a tais características. Para isso, não é preciso falar em repressões ou em inconsciente. Basta fechar os olhos e dar uma sacada geral na realidade polivalente da experiência de si mesmo. Bem-vindo à Matrix.

]]>
0