O futuro é smart: Como as novas tecnologias estão redesenhando os negócios e o mundo em que vivemos [1 ed.] 9788554945299, 9788554945305

O futuro sempre nos intrigou, embalados por ficções várias que desde a infância nos dão repertório para imaginar este fu

166 81 2MB

Portuguese Pages [145] Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Folha de rosto
Créditos
Dedicatória
Sumário
Introdução
Redesenhando um futuro smart
O futuro das coisas
O futuro da informação
O futuro da percepção
O futuro dos processos
O futuro do trabalho
O futuro da privacidade
O futuro do mercado
Conclusão
Notas
Recommend Papers

O futuro é smart: Como as novas tecnologias estão redesenhando os negócios e o mundo em que vivemos [1 ed.]
 9788554945299, 9788554945305

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

© 2018, André Telles 2018, PUCPRESS Este livro, na totalidade ou em parte, não pode ser reproduzido por qualquer meio sem autorização expressa por escrito da Editora.

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO PARANÁ (PUCPR) Reitor Waldemiro Gremski Vice-reitor Vidal Martins Pró-reitora de Pesquisa, Pós-Graduação e Inovação Paula Cristina Trevilatto PUCPRESS Coordenação Michele Marcos de Oliveira Editor Marcelo Manduca Editor de arte Rafael Matta Carnasciali Capa e projeto gráfico Rafael Matta Carnasciali Diagramação Paola de Lara da Costa Preparação de texto Camila Fernandes de Salvo Revisão Camila Fernandes de Salvo Paula Lorena Silva Melo Imagens de capa e miolo Fotolia (montagem) Conselho Editorial Alex Villas Boas Oliveira Mariano Aléxei Volaco Carlos Alberto Engelhorn Cesar Candiotto Cilene da Silva Gomes Ribeiro Cloves Antonio de Amissis Amorim Criselli Maria Montipó Eduardo Damião da Silva Evelyn de Almeida Orlando Fabiano Borba Viana Katya Kozicki Kung Darh Chi Léo Peruzzo Jr. Luis Salvador Petrucci Gnoato Marcia Carla Pereira Ribeiro Rafael Rodrigues Guimaraes Wollmann Rodrigo Moraes da Silveira Ruy Inácio Neiva de Carvalho Suyanne Tolentino de Souza Vilmar Rodrigues Moreira Produção de ebook S2 Books

PUCPRESS / Editora Universitária Champagnat Rua Imaculada Conceição, 1155 - Prédio da Administração - 6º andar Campus Curitiba - CEP 80215-901 - Curitiba / PR Tel. +55 (41) 3271-1701 [email protected]

Dados da Catalogação na Publicação Pontifícia Universidade Católica do Paraná Sistema Integrado de Bibliotecas – SIBI/PUCPR Biblioteca Central Luci Eduarda Wielganczuk – CRB 9/1118 Telles, André T274f 2018 O futuro é smart : como as novas tecnologias estão redesenhando os negócios e o mundo em que vivemos / André Telles. – Curitiba : PUCPRESS, 2018. 168 p. ; 21 cm ISBN 978-85-54945-29-9 978-85-54945-30-5 (e-book) Inclui bibliografia 1. Inovações tecnológicas. 2. Ciência e tecnologia. 3. Tecnologia da informação. 4. Civilização moderna. I. Título.

18-019

CDD 20. ed. – 303.483

Dedicatória A paixão pela redação veio desde criança com as aulas particulares de meu pai, Professor Venícius Telles, posteriormente se desenvolveu com as aulas de redação publicitária, ainda no início da década de 1990. O entendimento da eficientização de processos, produtos e serviços ditos como “smart” veio acompanhado do iCities, empresa que fundei com o amigo Roberto Marcelino, em 2011, na qual posteriormente tivemos a grata entrada de mais dois sócios inovadores, Caio Castro e Eduardo Marques. Hoje somos referência no tema de Cidades Inteligentes no Brasil, prestando consultorias, desenvolvendo projetos e soluções, além dos maiores eventos do tema no país. A inspiração diária devo a minha querida filha Melanie Telles, parceira destes momentos de dedicatória desde meu primeiro livro. Acompanhar temas relacionados à inovação e escrever sobre o tema me trouxe até este meu quinto livro, oportunidade pela qual agradeço a Deus. André Telles

SUMÁRIO Capa Folha de rosto Créditos Dedicatória Introdução Redesenhando um futuro smart O futuro das coisas O futuro da informação O futuro da percepção O futuro dos processos O futuro do trabalho O futuro da privacidade O futuro do mercado Conclusão Notas

INTRODUÇÃO O futuro sempre fascinou o homem. Mesmo antes do despertar da civilização como a conhecemos, xamãs e líderes tribais realizavam sortilégios, ritos e práticas espirituais nos quais buscavam indícios e respostas a respeito do futuro. Queriam, naquela altura, saber mais a respeito das condições climáticas, da oferta de recursos naturais, da propensão ao sucesso nos locais onde se instalavam. Mas o fato é que o homem sempre pensou no futuro. Essa condição é, talvez, aquilo que de fato nos separa dos animais e demais seres. Pensam eles também no futuro, mas como espécies — nós o fazemos enquanto indivíduos. Queremos melhorar nossas vidas e aprimorar nosso próprio conhecimento na geração em que vivemos, e não apenas de forma a garantir a sobrevivência das gerações que estão por vir. O homem olha para o futuro para, assim, buscar o sucesso no presente. Isso é algo que não mudou... até a virada do último milênio. Nunca, em toda a História da humanidade, o futuro confundiu-se tanto com o presente. Porém, antes de enveredarmos para o modo com que as novas tecnologias e as perspectivas de futuro afetam a sociedade de nossos dias, talvez seja melhor percorrermos o exercício de olhar adiante em outras épocas do mundo contemporâneo.

*** O início do século XX foi um dos períodos mais interessantes da sociedade moderna. Cientistas europeus e norte-americanos (e mesmo asiáticos, embora não conheçamos muito a respeito de sua história no Ocidente) saíram de suas garagens e laboratórios mal iluminados para ganhar o mundo.

Nikola Tesla, Alexander Graham Bell, Alfred Nobel, Thomas Edison, Louis Pasteur... suas centenas de invenções, embora acompanhadas de milhares de experimentos sem qualquer sucesso, desenharam o esboço de toda a sociedade do século XX. Eletrodomésticos, automóveis e veículos motorizados, sistemas de telecomunicação, vacinas e tratamentos da medicina moderna, artefatos bélicos. Um pequeno grupo de, talvez, algumas dezenas de pessoas, modificou completamente o futuro por pelo menos um século. Infelizmente, para a maioria deles, os resultados concretos de suas invenções e experimentos só ocorreram, em realidade, gerações após suas mortes. Conceitos de transmissão wireless idealizados por Tesla, por exemplo, somente se tornariam viáveis quase cem anos após o período em que viveu. Pasteur obteve sucesso em vida, mas seu real impacto para a medicina somente seria sentido décadas depois de sua morte – e a humanidade ainda enfrentaria dezenas de epidemias que tomariam milhões de vidas. Graham Bell assistiu a alguns poucos monarcas e milionários usarem sua invenção como uma curiosidade engraçadinha, mas teria de ter vivido mais cem anos para conhecer o telefone celular. Alfred Nobel dá até hoje nome ao mais aclamado prêmio concedido à comunidade científica mundial, mas talvez tivesse se sentido deprimido ao ver os resultados decorrentes da invenção da dinamite. No período entre os séculos XIX e XX, esse seleto grupo de pessoas enxergou possibilidades que estavam dezenas ou mesmo centenas de anos à sua frente. Contudo, a tecnologia, os recursos e a disposição da sociedade em seu tempo não lhes permitiu estabelecer de forma presente aquilo que, em suas mentes, parecia completamente viável.

*** As duas guerras mundiais criaram a impressão errônea de que o conflito é a única forma de criar e promover o avanço científico e É

tecnológico. É bem verdade que ambas as guerras, assim como o período entre elas, abriram um volume de recursos financeiros e materiais jamais visto na comunidade científica. Qualquer visionário, na primeira metade do século XX, tinha possibilidades claras de financiamento quase inesgotável a seus estudos e pesquisas. Centenas de gênios que viam o futuro de um modo diferente puderam, nessa circunstância, colocar em prática suas experimentações e trazer para a realidade alguns conceitos que pareciam completamente inexequíveis.

Uma visão sombria do futuro O período Entre Guerras, das décadas de 1920 a 1940, foi caracterizado por uma sociedade em pedaços no mundo ocidental. As mazelas da Primeira Guerra Mundial somaram-se à crise financeira mundial e à ascensão de regimes totalitários de direita e esquerda em todo o globo. A despeito dos avanços tecnológicos ocorridos entre o final do século XIX e começo do século XX, a sociedade enxergava um futuro sombrio, marcado pela automatização do ser humano e até mesmo sua escravização – fosse por máquinas, alienígenas ou mesmo líderes radicais e despóticos. Nesse contexto, inovações e avanços eram vistos como uma tentativa direta de dominação – apenas instrumentos para criar poder e relegar o “ser humano comum” à perda de individualidade e identidade. O romance Admirável Mundo Novo é um claro exemplo dessa expectativa. Aldous Huxley cria, na obra, uma sociedade futurista e distópica, na qual a reprodução humana é automatizada e geneticamente controlada em nível tecnológico, e a reprodução convencional é vista como uma heresia, tal qual crenças e religiões. O livro 1984, embora posterior à Segunda Guerra Mundial, segue linha semelhante, mas de maneira ainda mais sombria, como resultado do avanço tecnológico como forma de controle. A obra mostra uma sociedade distópica na qual membros são vigiados e supervisionados ininterruptamente por uma força que estende o poder da classe dominante até a vida privada e o cotidiano de todos, por intermédio do “Grande Irmão” – que poderia ser interpretado como uma mescla de poder despótico e inteligência artificial.

O cinema também cedeu à visão apocalíptica de futuro. Filmes como Metrópolis, de 1927, já mostravam a forma como a expectativa de futuro era o subjugar da sociedade aos desejos de uma classe dominante, que congregava todo o poder financeiro e político, orientando a evolução tecnológica à aplicação e manutenção do poder. Já em 1927 conceitos como a inteligência artificial e os simulacros eram discutidos e cogitados, porém no sentido de perpetuar oligarquias no topo da sociedade, nunca de seu benefício direto. Os exemplos vão além, mas o fato é que, durante a primeira metade do século passado, a inovação era certamente vista com desconfiança pela sociedade. A aplicação de novos conceitos esbarrava não apenas na dúvida, mas nos mais profundos medos de cada uma das pessoas. A tecnologia continuaria a avançar, não obstante, por conta de projetos militares e industriais principalmente ligados à polarização da política mundial. Sua migração para a sociedade, embora hoje vista como tendo sido uma “privação” por parte de governantes, na verdade tornou-se difícil e encontrava barreiras no próprio imaginário popular. Computadores levaram três décadas para ganhar confiança e desempenhar algum papel na vida do homem comum, e mesmo a televisão foi recebida com reservas em seus primeiros anos de mercado. A lenta popularização impedia o ganho de escala e, consequentemente, atrasou a disseminação de tecnologias que foram dominadas ainda durante a Segunda Guerra, mas chegariam às nossas casas muitas décadas depois.

A humanidade passou a conhecer melhor as partículas subatômicas, criou formas de voar cada vez mais eficientes, ferramentas de comunicação que diminuíam períodos de semanas a alguns poucos minutos. Mas a visão, ao menos no que tocava às lideranças da época e mesmo à sociedade, era um tanto limitada. As grandes descobertas pareciam abrir o cenário enevoado existente no futuro das guerras e conflitos – mas poucos realmente enxergavam o que poderia estar além de uma vitória ou conquista. Os espólios científicos da Segunda Guerra Mundial criariam uma infinidade de avanços, ainda nas décadas de 1950 e 1960. Entretanto, com a visão futurista do conflito final – o que conheceríamos mais

adiante como a Guerra Fria – tais avanços inacreditáveis eram “estrategicamente” mantidos às sete-chaves. Estivemos na Lua e no espaço em diversas ocasiões. Criamos computadores que podiam processar informações milhões de vezes mais rápido do que o mais sagaz dos seres humanos. Esses computadores, contudo, eram muitas vezes vistos pela sociedade como uma ameaça, ou algo reservado a grandes agências governamentais e grupos oligárquicos secretos, com objetivos escusos e megalomaníacos. As artes, inclusive, refletiam nosso temor de um futuro incerto, no qual máquinas e déspotas caminhavam juntos, ou no qual máquinas simplesmente tornavamse o inimigo.

Opiniões divididas Os anos 1960 e 1970 trouxeram novos conceitos e criaram novas linhas de pensamento na sociedade. Ganhos sociais envolveram mulheres, grupos étnicos e jovens de maneiras mais proativas na sociedade e na cultura. Uma cisão começava a ocorrer em nossa visão de futuro: de um lado, máquinas e superestruturas permaneciam como uma fonte de poder. Entretanto, outros começavam a enxergar um futuro no qual a tecnologia de fato poderia estar a serviço do homem e da sociedade. O conceito verdadeiro de “inteligência artificial” tornou-se mais complexo. Máquinas inteligentes – usando sua razão de forma altruísta ou destruidora. Ainda que obras no cinema como Laranja Mecânica ainda vissem o futuro despótico e distópico das esferas dominantes dirigindo a sociedade, o avanço tecnológico agora era visto de forma ligeiramente diferente. Em 2001, uma Odisseia no Espaço, o computador HAL 9000 é uma inteligência artificial responsável por toda a operação e manutenção de uma nave espacial em missão através do Sistema Solar. Algumas fontes afirmam que o nome HAL deriva de IBM. De fato, cada letra de HAL é exatamente uma anterior, alfabeticamente, às letras de IBM. Entretanto o autor sempre negou essa informação. HAL 9000 é mais do que apenas parte do cenário da trama. É uma das personagens centrais da obra. O que torna essa personagem memorável na discussão da inteligência artificial é exatamente o contraponto entre sua visão

racional extrema, em função da missão e a despeito da tripulação em seu todo, com a capacidade de interpretar e mesmo sentir. Temos, no filme, diálogos de HAL 9000 tais como “eu não me preocuparia com isso”, ou “eu sei que minha mente está indo embora... eu sinto”. Mas Isaac Asimov coloca as coisas de um modo ainda mais realista. Em sua visão de futuro, já na década de 1970, enxergava as noções da internet que conhecemos hoje, e a inteligência artificial de uma forma que se aproxima daquilo que começamos a vivenciar. Em uma de suas obras mais aclamadas, a coletânea de contos Eu, Robô, Asimov discute a inteligência cibernética e seu enquadramento na sociedade humana, chegando inclusive à teorização das famosas três leis da robótica: Um robô não pode ferir um humano ou permitir que um humano sofra algum mal; Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei; Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores. Mas Asimov não se manteve apenas na discussão da robótica, embora essa seja a faceta mais conhecida de sua obra. O escritor foi um dos futurologistas mais desenvoltos em sua obra durante todo o século XX e discutia, quase 50 anos atrás, dilemas que começamos apenas agora a enfrentar como sociedade.

Desenvolvemos ferramentas de comunicação que teriam salvado milhões de vidas, ao longo de décadas. Tínhamos conhecimento de tecnologias que substituiriam facilmente o petróleo como matriz energética, embora isso não fosse muito interessante. Mas nossa preocupação com nossos supostos adversários nos manteve, por 30 ou 40 anos, inertes. Pequenos “prêmios de consolação” eram cedidos de quando em quando para a sociedade como um todo. Ao final dos anos 1970, estávamos praticamente do mesmo modo que estávamos vinte anos antes. Até que isso não bastou mais...

*** Os anos 1990 e 2000 trouxeram uma visão mais empreendedora ao mundo. O horizonte mais tranquilo, celebrado com o fim da Guerra Fria, a Queda do Muro de Berlim, o final do regime do Apartheid na África do Sul e dezenas de outros movimentos de democratização e abertura ao redor do mundo – Rússia, China, Leste Europeu, Oriente Médio e mesmo regimes como Cuba – permitiu que a visão de futuro se tornasse algo mais prático. O receio do conflito e da guerra, bem como a preparação para suas mazelas, cedeu lugar a uma visão construtiva. O futuro começava a deixar de ser algo reativo. Cabia a nós construir os próximos passos, não mais com base nas ruínas e sobras deixadas pelas ações de nossos antepassados, mas principalmente guiados por nossas próprias mentes. Infelizmente, lições sempre são aprendidas. O ataque do 11 de setembro, em 2001, somado às crises que se seguiram até a derrocada da bolha imobiliária, em 2008, criaram na verdade um ponto de ponderação interessante. Progredir e inovar é preciso, porém é preciso também estabelecer linhas sustentáveis de crescimento e desenvolvimento. A década em que vivemos tem sido como poucas na História da humanidade. A automatização, a passagem da Indústria 4.0 para a vindoura Indústria 5.0, a modificação brutal das realidades sociais e do trabalho com a evolução da internet. Tornamos o cotidiano mais seguro. O “hoje” agora não é mais uma preocupação, e isso nos deixa espaço para que pensemos no amanhã. E, na velocidade da sociedade contemporânea, pensar não é mais suficiente. É preciso executar. Visão, planejamento, execução, manutenção e repetição. O caminho das pedras parece visível e alcançável, e as lições de alguns séculos agora abrirão um novo passo da humanidade. O impulso do jovial deverá se unir ao método do maduro, para criar um futuro baseado em sonhos e conquistas, porém sólido, sustentável e firme, norteado pela razão.

Emoção e razão caminham juntas Desde o começo dos anos 1970, a Era Espacial conheceu um recuo. Em meados dos anos 1990, quando futurólogos preconizavam que já estaríamos inclusive vivendo no espaço ou visitando outros planetas, nossos ímpetos além da Terra resumiam-se a pesquisas científicas realizadas em estações espaciais ou em novos equipamentos que pudessem manter e ampliar o que conhecíamos a respeito do universo e das estrelas. A Lua tornou-se uma vez mais uma fronteira do desconhecido e o distante sonho de visitar outros planetas, a começar pelo vizinho Marte, parecia agora um objetivo limitado a alguns poucos filmes de ficção científica. A cada novo lançamento, parecíamos conhecer mais a respeito do Universo. Entretanto, sempre dentro do conforto de nossas poltronas, enquanto robôs e equipamentos de bilhões de dólares colhiam pistas distantes. A desculpa dos custos envolvidos em viagens espaciais foi quase que plenamente absorvida pela sociedade. Num mundo sem grandes guerras, a visão dos problemas internos tornou-se mais clara – o homem queria agora melhor saúde, educação, leis e normas mais justas e uma liberdade maior em seu dia a dia. Tornamo-nos mais evoluídos em termos sociais, mas a virada da última década mostrou uma realidade: carecíamos de heróis, de grandes jornadas, de objetivos que unissem toda a humanidade como espécie. Concentramo-nos no indivíduo. Felizmente, isso não foi o bastante para todos. As desculpas dos custos elevados, da inviabilidade comercial, da ausência de clamor popular, tudo isso não foi suficiente para reprimir os ensejos de alguma meia dúzia de visionários. E, mesmo após conquistarmos a tão sonhada zona de conforto pela qual lutamos por mais de três gerações, não estávamos ainda satisfeitos. O que está ganho permanece, mas é preciso ir além. Em 10 ou 15 anos, sustentam hoje os novos heróis, estaremos em Marte. Talvez passemos de novo pela Lua. Empresários para os quais os riscos são parte da própria vida parecem dispostos a tornar o espaço um destino viável em agências de viagens em shopping centers.

Mas o sonho não é mais pueril. A visão não é romântica. Sabe-se dos perigos, dos desafios, sabe-se inclusive que o objetivo em si é apenas um ponto na linha do tempo, a partir do qual abrem-se novos objetivos e metas que, em nenhum momento, serão mais fáceis do que os que estabelecemos agora. A série Marte, recentemente colocada no ar pelo Netflix, é uma verdadeira ode a toda uma geração de novos aventureiros. Parte documentário e parte romance, Marte traz uma história que alterna cenas de 2016 e 2017, nas quais pessoas reais envolvidas nesse novo passo da humanidade mostram em que ponto estamos no planejamento de nossa próxima grande viagem, e cenas de um romance que ocorre a partir de 2033. Hoje, apenas uma história. Provavelmente não muito diferente do que veremos nos noticiários em 10 ou 15 anos. A mensagem? O retorno de uma sociedade que deixou de lado o apenas “viável”, para investir tempo, dinheiro e até mesmo vidas no “possível”.

*** Os novos heróis e gurus ainda estão em ascensão. Tardará alguns anos até que deixem os noticiários para ganhar os documentários, versões cinematográficas e o imaginário popular. Contudo, temos heróis que já chegaram a esse ponto, a partir de uma realidade não tão distante.

Todo mundo conhece e idolatra Steve Jobs. Idealizador daquela que, 30 anos mais tarde, seria, senão a maior empresa do mundo, pelo menos a mais querida e lembrada, Jobs hoje representa o exemplo geral do que deve ser a visão do futuro. Contudo, talvez estejamos sendo um pouco injustos. É verdade que Jobs revolucionou muito mais a forma com que a sociedade em si enxerga a tecnologia do que um ou outro apetrecho ou equipamento, mas se voltarmos ao início da década de 1980, iremos descobrir que ali, no ponto mais alto da Guerra Fria e da prisão “futurista” do establishment, aprendemos a pensar de um modo peculiar. Pela primeira vez em quase cem anos, queríamos que nossa visão de futuro se tornasse algo concreto e plausível – ainda em nosso presente. A maioria enxerga de maneira clara os pontos quiçá negativos dessa nova mentalidade, como o consumismo, e isso acaba por “embaçar” o verdadeiro aspecto fantástico desse novo modo de olhar para frente. O futuro hoje é executável. O futuro hoje é Smart e podemos redesenhá-lo. E isso, meus amigos, muda tudo!

REDESENHANDO UM FUTURO SMART O redesign é a reformulação do design de algo. Essa necessidade de renovação surge por diversas razões. Pode ser pelo aparecimento de novas técnicas, de novos materiais, para eliminar falhas existentes ou como estratégia de marketing para renovar o produto no mercado. O termo design tem também outra forma de interpretação além de desenho. Pode ser compreendido como projeto, projetar. Analisar as possibilidades futuras com as tecnologias já disponíveis é um exercício que nos abre novas possibilidades de negócios e de um mundo melhor. Neste livro, portanto, o redesign poderia ser entendido como reprojetar. Uma maneira que pode ser utilizada nesta nova forma de olhar o mundo é o termo Smart. De uma forma genérica, algo “smart” aponta para qualquer conceito, ideia ou ferramenta que proporcione uma forma mais inteligente de realizar ou desempenhar algo. Um veículo “smart” possui ferramentas que facilitam a localização, permitem que o proprietário identifique problemas e realize manutenções sem grande trabalho. Uma TV “smart” conecta-se a outros dispositivos, economiza energia, dá avisos e lembretes ao usuário. Tudo isso é, de certo modo, “smart”. Porém, facilidade e conveniência não são sinônimos de uma filosofia ou pensamento “smart”. Vamos facilitar a coisa toda: pense em todos esses serviços e objetos “smart” como o resultado de uma nova maneira de pensar. Dentro dessa nova visão de mundo, as possibilidades de determinada ferramenta ou produto não se esgotam em suas características, ou em seus usos previstos pelo fabricante ou mesmo no próprio objeto em si. De volta às décadas de 1940 ou 1950, qualquer um se perguntaria a respeito do porquê construir uma geladeira que também toca músicas ou exibe notícias. Na linha de pensamento em voga nos tempos de nossos pais e avós, cada item dentro do cotidiano possuía uma função específica.

Não esperávamos que nossos carros pudessem receber ligações telefônicas. Automóveis serviam ao propósito de ir de um lugar ao outro, assim como telefones tinham como objetivo efetuar ligações. O mesmo ocorria com serviços. Dentro da realidade da produção em massa e de uma sociedade cuja vida estava, em muitos aspectos, atrelada à própria industrialização, produtos eram criados com objetivos simples e diretos. Não se buscava necessariamente a resolução de problemas ou dilemas pessoais. Todas as casas tinham de ter uma geladeira, um fogão, um aparelho de TV e um chuveiro. Aceitávamos simplesmente o fato de que, dentro do modelo de estilo de vida proposto, determinados objetos eram necessários. Problemas individuais não eram, de forma alguma, o foco das atenções. Ainda que “customizações” existissem, limitavam-se a fatores relacionados ao gosto. Alguns queriam produtos em branco, outros em preto. Produtos especiais, raríssimos, vinham em séries limitadas. Eles nem de longe atendiam a necessidades individuais e únicas, porém criavam uma certa noção de valor, em razão de sua raridade, exotismo ou aura de status. O primeiro grande passo da customização esteve associado à ideia do “exclusivo”, no sentido de elitizado. Características que não necessariamente resolviam problemas, mas nos colocavam em um patamar diferente. Longe do “restante”. Sentíamo-nos especiais em detrimento daquilo que era o comum.

*** Muito se discute a respeito de uma forma diferente de pensar... o tal “fora da caixa”. O lugar-comum da expressão não oferece, contudo, objetividade suficiente para definir o porquê do “smart” ser melhor, pior ou mesmo diferente do modo com que pensávamos há 10, 20 ou mesmo 50 anos. Redesenhar um futuro mais smart é uma forma diferente, porém voluntária, de enxergar o mundo, as possibilidades e, principalmente, os recursos com os quais contamos.

Jeffrey Gedmin, catedrático da Universidade de Georgetown há tempos e CEO anteriormente em diversas iniciativas, dentre elas a Radio Free Europe e o Instituto Legatum, de Londres, propõe quatro fatores-chave aos quais devemos dedicar tempo e esforço para desenvolver formas de enxergar um futuro mais inteligente: 1. Primeiramente, melhorar nosso poder de observação. Criar soluções, redesenhar conceitos, elaborar formas mais eficientes de conduzir o progresso – tudo isso exige uma capacidade de observação e apreensão tremenda. Estabelecemos, por meio da mitologia empresarial e mesmo científica, a inspiração e o processo criativo como sendo fagulhas que simplesmente acendem, em questão de segundos e de forma imediata. A grande verdade é que a observação e a compreensão cuidadosa dos fatos é que nos leva a grandes ideias e a conceitos realmente inovadores. 2. Valorizar o isolamento e o distanciamento eventuais. Pode parecer complexo entender esse conceito quando temos uma sociedade que coloca o networking em um imenso pedestal e fala incessantemente dos benefícios de estarmos conectados 110% do tempo. A verdade é que somos fãs incondicionais da máxima já esvaziada do “fora da caixa”, porém nos impelimos a participar e seguir a “caixa” em tudo aquilo que fazemos. Cumprir agendas, frequentar eventos e encontros de nossos “iguais”... divertimo-nos na caixa até o momento em que acreditamos estar fora dela, mesmo que cravados em seu interior. 3. Estudar História. Longe dos memes e discussões políticas do Facebook, o fato é que conhecer a História é um pressuposto para traçar linhas de pensamento mais eficazes no futuro. Temos sempre, no fervor e orgulho de nossas ideias, a impressão de estarmos sendo arrojados, inovadores e ineditistas em praticamente todas as nossas iniciativas. Pensar “smart”, para redesenhar o futuro, contudo, exige a colocação de uma simples pergunta no processo: “isso já foi tentado antes?” 4. Aprender a lidar com a ambiguidade e mesmo a incerteza seriam o ato final para redesenhar um futuro mais smart.

Possuímos uma tendência quase irresistível em tornar nossas decisões e dilemas equações cujos resultados são sempre binários. Ceder e “ganhar” é possível, assim como perder é uma possibilidade, mesmo quando somos capazes de impor nossa visão de maneira completa.

Concentremos agora a atenção nesse último aspecto. Para redesenhar um futuro mais smart temos que ter como principal característica o entendimento da ambiguidade e a incerteza. Divergências, conflitos, choques de visão e opinião. Quando começamos a lidar com esses fatores de forma natural e como parte de nosso próprio processo criativo, começamos a trilhar um caminho para um modo de pensar completamente diferente. Ele não é “mais inteligente” ou o modo “correto” de pensar – apenas possui uma abertura maior. Imagine observar o mundo através de uma luneta. Com ela, somos capazes de observar mais longe. Contudo, nossas atenções, com esse instrumento, podem apenas estar centradas em um único objeto ou quadro de cada vez. Todo o entorno, o caminho necessário para chegar até lá, as possíveis interferências externas – tudo isso é eliminado, e permanece simplesmente fora de nosso campo de visão. Ao retirarmos os olhos da luneta, enxergamos cenas e quadros sem tantos detalhes, mas somos capazes de perceber o todo, a interação e a interconexão entre todos os fatores. Somos capazes de enxergar MAIS, ainda que com a luneta possamos ser capazes de enxergar algumas coisas isoladas de modo MELHOR.

Uma coisa é certa, o futuro é incerto; a curiosa óptica da “VUCA” O nome não parece algo bonito e nem mesmo aponta para uma visão científica ou técnica. Professores e catedráticos norteamericanos vêm, contudo, dissertando a respeito dessa tendência de

visão [1]. O nome é, na verdade, um acrônimo – em português seria mais algo como “VICA”. Quatro formas de enxergar estratégias e planos: 1. Volatilidade; 2. Incerteza; 3. Complexidade; 4. Ambiguidade.

Essas quatro abordagens consistem em maneiras diferentes de operar um problema. A “escolha” em relação a forma de abordagem depende, em igual escala, do quão bem podemos ou não prever os resultados de nossas ações e do quanto sabemos a respeito de cada situação ou dilema.

Volatilidade Em alguns casos, nos deparamos com desafios que podem representar algo inesperado ou mesmo instável. Entretanto, tais desafios não são necessariamente complicados de se entender, bem como ferramentas e conhecimento são amplos para com eles lidar. Em outras palavras: por mais que haja informação a respeito da situação, ou parâmetros possam parecer compreensíveis, um problema sempre pode possuir fatores inesperados ou voláteis. Pense, por exemplo, num grande aumento nos preços de determinado produto agrícola logo após um desastre natural. A escassez certamente irá desencadear uma valorização do produto, porém são incertos aspectos como a proporção dessa valorização, ou sua duração ou mesmo espectro de impacto. Enfrentamos a volatilidade, como regra, provendo nossos negócios de recursos que possam criar certo preparo. Estoques,

reservas financeiras, instrumentos de hedge. O tamanho das reservas deve, de um modo geral, acompanhar o grau de risco existente em cada situação. Em planos de negócios, o mapeamento e a gestão de riscos funcionam sob essa visão. Fatores previsíveis, porém voláteis, são analisados, e recursos e reservas destinados a cada tipo de situação, geralmente com graus de acionamento que dependem do tamanho das ameaças, quando já deflagradas.

Incerteza Mas conhecer e saber a respeito de situações nem sempre é uma garantia. Muitas vezes os impactos de determinado problema não são previsíveis e, embora haja imenso volume de informações disponível para quando o dilema ou problema já está à mesa, pouco se pode fazer no sentido de prever sua existência. Mesmo com todos os grandes avanços no campo da geologia, por exemplo, terremotos ainda possuem um enorme grau de incerteza. Mas voltemos à realidade de 50 ou 60 atrás. Já conhecíamos, na década de 1960, a natureza e a causa dos terremotos, assim como seus efeitos uma vez manifestados. Entretanto, pouco ou nada podíamos fazer para prevê-los com alto grau de confiança, e menos ainda poderíamos (ou ainda podemos) fazer para simplesmente evitá-los. Observar um problema sob a óptica da incerteza não elimina o fator volatilidade. Podemos sempre constituir reservas e recursos para lidar com o problema, porém corremos dois riscos: Criar reservas que jamais são utilizadas e, além disso, limitam nossos recursos atuais; Estabelecer reservas insuficientes para responder ao problema.

Lidar com incertezas significa buscar, de forma incessante, a informação. Pesquisar, interpretar, compartilhar e utilizar toda e qualquer informação no sentido de gerar mais conhecimento e tentar criar mecanismos de previsão mais eficazes. No caso dos terremotos, fazemos isso desde o início da civilização contemporânea. Hoje temos maneiras mais eficazes de reduzir o grau de incerteza desse tipo de desastre, mas não resta dúvida: ainda há muita informação a conseguir.

Complexidade Há outra possibilidade ainda. Determinados problemas e acontecimentos são bastante previsíveis. Entretanto, nosso grau de conhecimento e informação sobre as causas, efeitos e a extensão e duração desses problemas é falho. Algo semelhante a isso ocorre com empresas que decidem aplicar seus modelos de negócio em países e culturas completamente diferentes. As pessoas e o consumidor seguem, em muitos aspectos, os mesmos, porém valores, regras e ementário legal, impostos e características financeiras são diferentes, embora previsíveis em um certo grau. A complexidade exige reestruturações, assim como o uso de especialistas e recursos adequados e geralmente novos para cada tipo de situação. A complexidade foi, durante muito tempo, o modo de pensamento em vigor na comunidade científica. Novas possibilidades eram abertas através da “derivação” ou “reaplicação” de modelos conhecidos em novos campos e áreas. O método alia-se ao reconhecimento da autoridade e competências no campo da complexidade. Para cada situação previsível, podemos utilizar recursos mais adequados, de forma a

tratar o problema por meio de modificações e variações de um modelo original.

Ambiguidade Contudo, existe o caos. Determinados problemas e circunstâncias se mostram completamente imprevisíveis. Para completar o quadro, dispomos de pouco ou nenhum conhecimento a respeito de suas causas, consequências, período ou extensão. Durante muito tempo, a ambiguidade esteve presente no dia a dia da humanidade. Fatos completamente desconhecidos, cujas consequências eram imprevisíveis, mesmo após a ciência inicial da situação. O que fazer quando simplesmente não existem precedentes? Por séculos, nossa comunidade científico-acadêmica construiu, ainda que de modo magistral, metodologias que giram basicamente em torno do uso de informações e recursos já conhecidos. A ambiguidade parecia, por algum tempo, um dilema do passado na realidade humana. Mas ela nunca deixou de estar lá. O desconhecido continuou a seduzir o homem e, com ele, o desejo de experimentação. A única forma racional de abordar o desconhecido é por meio do experimento. A partir dele, podemos gerar hipóteses e testá-las contra nossas próprias conclusões e pressuposições.

Quando a precaução não faz diferença Filmes de ficção científica são particularmente competentes em mostrar o desconhecido e o processo de geração de hipóteses de forma mais clara. Na

grande maioria dos enredos, personagens se deparam com fatos e acontecimentos desconhecidos, que são testados ao longo da história, até que hipóteses sejam descartadas e a verdade permaneça como a única explicação viável. Nos últimos anos a ficção vem acompanhando novas teorias, às vezes incompreensíveis e inimagináveis ao grande público. Física quântica, deformações do tempo-espaço, aspectos incertos da teoria da relatividade e uma noção quase que teatral do tempo. O filme Interestelar, por exemplo, cria um cenário no qual os poucos fatores conhecidos ou previsíveis terminam por fazer pouca ou nenhuma diferença. Uma jornada norteada por tênues indícios e um salto no desconhecido acaba por criar resultados completamente inesperados – e eles apenas são possíveis a partir do momento em que os planos, cuidadosamente traçados, se mostram completamente inúteis para enfrentar os problemas. Se você ainda não assistiu ao filme, pare de ler por alguns momentos e assista o mais rápido que puder. Se já assistiu, pode seguir nos parágrafos adiante. Interestelar discute variadas teorias que ainda colocam à prova as maiores mentes do planeta: o comportamento do tempo-espaço, um universo com múltiplas dimensões, a natureza tridimensional do tempo e até mesmo aspectos espirituais sob uma óptica científica. O mais importante, contudo, quando discutimos o smart thinking, é a forma com que o enredo lida com os planos. O filme retrata a jornada de uma equipe de astronautas em busca de um novo mundo para a raça humana. O plano A? Encontrar um planeta habitável e regressar para viabilizar a “mudança” da população humana. O plano B, o único realmente plausível para cientistas e pesquisadores, por outro lado, envolve encontrar um planeta viável, para assim estabelecer uma nova colônia humana a partir de embriões fertilizados que se encontram na nave. Com o plano A “descartado” por conta dos fatos, circunstâncias levam à quase destruição do plano B. Sem planos de “reserva” e simplesmente impelidos pelos novos problemas que surgem, os astronautas restantes passam a guiar suas decisões a partir de experimentos e, como resultado da própria necessidade, terminam por dar um salto ao desconhecido, literalmente. Quem já sabe o final dessa história pode chegar a uma conclusão importante: ela termina no plano C.

Objetividade e solução A óptica do planejamento, embora útil em projetos e planos de longo prazo, terminou por deixar muitos de nós cegos. A verdade é que perdemos a objetividade. Soluções simples transformam-se em processos e processos, por sua vez, transformam-se em novos objetos de análise e “planejamento”. Modificar e alterar, sem submeter ideias e ações a um fluxograma interminável de validações, aprovações e autorizações, converteu-se em um verdadeiro tabu. Pequenas soluções que tornariam a vida de comunidades e indivíduos melhor em questão de dias ou mesmo horas passaram a levar anos ou décadas. “Executar”, para muitos, é hoje o antônimo de “planejar”. Há quem considere o que estamos chamando de redesenhar um futuro mais smart uma forma nova de improvisação, uma maneira de romper com as regras de planejamento e o ciclo burocrático sem comprometimento e de forma irracional. Contudo, o planejamento estratégico continua ali. Ele apenas não se pauta, necessariamente, na obediência a padrões e etiquetas as quais são, em grande parte das vezes, tarefas sem qualquer adição de valor ao projeto em si. A grande questão aqui é compreender o porquê que redesenhar o futuro dentro de um pensamento smart é capaz de congregar, simultaneamente, ações mais rápidas e objetividade de execução e um planejamento estratégico igualmente competente. Se pensarmos no modo com que projetos são conduzidos em instituições burocráticas, podemos apontar alguns aspectos que são deixados de lado, e são, não raro, os grandes causadores da morosidade e da inação. São eles: Aprendizado com erros e ações malsucedidas. Pensar “smart” significa descartar estrategicamente ações e vias que tenham sido invalidadas em outras circunstâncias. O caráter estanque de procedimentos e ritos administrativos obriga, muitas vezes, etapas de planejamento a cumprir tarefas e perseguir objetivos que já se mostraram ineficazes.

Reavaliação de cenários. Grande parte dos nossos processos, mundialmente falando, foram concebidos com olhos na realidade e nos cenários existentes há 10, 20 ou mesmo 50 anos atrás. Conduzir um planejamento com base em premissas obsoletas leva, necessariamente, a um processo moroso e, com frequência, a conclusões obsoletas. Observação e vivência. Pensar de forma smart propõe a busca por soluções e a definição de estratégias a partir da vivência e inserção. Pesquisas e análises com distanciamento científico ainda mantêm sua utilidade, mas passam a correr em paralelo com insights e constatações realizadas por meio da própria participação e vivência dos problemas. Significado. Redesenhar um futuro mais smart não é algo relacionado a objetos ou produtos, ou mesmo a processos e métodos específicos. A busca inteligente por soluções e respostas está mais relacionada ao PORQUÊ das coisas. Precisamos buscar significado e propósito em nossas vidas, mas isso também vale para objetivos menores, assim como para dilemas do tipo problema-solução.

O ementário acadêmico e corporativo em alta nos anos 1980 e 1990 diria que a contemplação, observação, a busca de significado e mesmo a procura por mudanças, são formas de criar inação e procrastinação. Em muitas avaliações conservadoras, pensar é um ato visto como filosófico. Mais de cem anos depois, somos vítimas ainda das primeiras eras da industrialização. Embora parte esmagadora dos esforços de padronização e automatização tenham sido relegados às máquinas, ainda recaímos no mindset errôneo de que não temos tempo de pensar, apenas de agir. Essa visão de mundo cria uma série de problemas que, de maneira desavisada, leva à postergação e à ausência de ações. Em nossos conservadores esforços no sentido de apenas “executar”, repetimos incessantemente tarefas e processos, mesmo que esses já tenham sido provados inúteis ou ineficazes. Ao mesmo tempo, nosso mundo é pautado por regras e restrições que nós mesmos criamos um dia, para evitar que abusos ou ações

impensadas afetassem de forma negativa nossas vidas e nossa sociedade. Instituições e órgãos foram criados e se desenvolveram. Cada ação dentro dessa sociedade “executora” pressupõe um sem-número de tarefas realizadas apenas para que os modelos e processos que criamos sejam satisfeitos. Para gerações inteiras, agir, no sentido social, significa tão somente cobrar ações de terceiros. Deixando de lado o caráter legítimo das manifestações e do posicionamento do indivíduo perante os líderes de uma sociedade, a verdade é que nos tornamos rápidos e ágeis no que tange a cobrar soluções para problemas. Esquecemo-nos, contudo, de como agir no que toca a criar soluções. Desta forma, redesenhar um futuro mais smart não é uma teoria ou mesmo um novo olhar sobre processos ou diagramas em voga no mercado. No sentido apreendido ao longo deste livro, “smart” é uma visão – uma forma de concentrar esforços intelectuais e mesmo físicos na simplificação de dilemas com os quais nos deparamos em nosso cotidiano. Pensar “smart” é pensar em novas soluções – porém em soluções que possam ser implantadas por nós mesmos, e que dependam apenas daqueles realmente envolvidos na busca de respostas para um dado problema. Smart thinking é, ainda que de uma forma ligeiramente romântica, pensar no futuro. E a partir dessa visão, amoldar o presente para que os objetivos vislumbrados sejam atingidos. Não por conta de metas arranjadas ou obrigações estabelecidas, mas simplesmente para tornar a vida melhor, individualmente ou coletivamente.

Ver depende de saber Parece uma observação óbvia e poucos acadêmicos ou mesmo autoridades discordariam dessa simples frase. Mas o que é “saber”? Ainda há comunidades tribais que jamais tiveram contato com qualquer tipo de tecnologia. Não assistem TV, nunca falaram ao

telefone, sequer imaginam o conceito de internet. Para nossa sociedade conectada, isso parece um enorme problema. Sabemos, todos nós, que a comunicação poderia tornar essas pessoas mais saudáveis, prover-lhes acesso a uma série de benefícios da sociedade moderna e, quem sabe, criar uma série de novos e interessantes perfis do Instagram, como fotos e imagens de culturas praticamente desconhecidas. Contudo, observe pela óptica dessas comunidades. Talvez fosse de enorme utilidade impregná-los com todos os nossos aparatos tecnológicos, mas viver sem tecnologia, nesse aspecto, não é exatamente um PROBLEMA para esses grupos sociais. Há alguns problemas mais urgentes a solucionar: A distância percorrida para alcançar fontes cada vez mais esgotadas de água potável; A dificuldade atroz de diagnóstico para doenças comuns nessas regiões, com curas conhecidas há décadas; Migrações cada vez mais frequentes, por conta da falta de recursos, estes por sua vez afetados ou mesmo destruídos como consequência de sociedades desenvolvidas mais próximas; Perda da identidade cultural, por conta da interferência desmedida de sociedades desenvolvidas em seu núcleo social; Explosão de conflitos étnicos, agora intensificados por conta do envolvimento dessas comunidades com o tráfico de drogas, ações criminosas, exploração desmedida de recursos minerais e regionais, entre outros.

Sabemos o que vemos. E o que podemos ver a respeito dessas comunidades são fatos e narrativas que chegam de forma generalista e distanciada. Sim, há fome, há ausência de tecnologia, essas sociedades têm pouco ou nenhum acesso à educação como conhecemos, bem como à saúde. Contudo, nossa forma de ação está invariavelmente baseada naquilo que vislumbramos como “uma vida melhor”. Porém, isso nem sempre se traduz nas reais necessidades e problemas de outros grupos sociais. Para pensar “smart” precisamos

vivenciar a experiência dessas pessoas, entender seu meio ambiente e estar envolvidos não apenas na solução – mas principalmente no problema.

O xadrez e o futuro smart O autor Art Markman compara à habilidade de pensar um futuro de forma mais smart com jogar xadrez [2]. Ele cita algumas pesquisas que comprovam que o conhecimento de jogadores em relação a variações de jogadas, aberturas e movimentos são as características que determinam a qualidade do enxadrista, muito mais do que sua capacidade de abstração. Um jogador de xadrez evolui à medida que joga, conhece novos adversários e é capaz de relacionar movimentos conhecidos com estilos e táticas, de forma a antecipar lances de um adversário e decidir suas jogadas com base nisso. As regras do xadrez são razoavelmente simples. Temos um tabuleiro invariável, com um número de peças constante e tipos de peças que podem mover-se de determinada maneira. Não há exceções ou variações. Entretanto, a dificuldade do xadrez está exatamente no número absurdo de movimentos possíveis após cada nova rodada. Computadores, desde os anos 1980, foram colocados como rivais dos maiores enxadristas do mundo. Em várias circunstâncias, ainda que computadores fossem capazes de avaliar milhões de movimentos possíveis em segundos a cada rodada, enxadristas, que avaliam mentalmente apenas algumas dezenas de movimentos a cada rodada, foram capazes de superá-los. Ao contrário da avaliação metódica de toda e qualquer desdobramento possível, enxadristas limitam-se a determinadas opções. Eles o fazem com base em sua experiência e naquilo que viram ao longo de suas carreiras. Opções de movimentos inúteis ou infrutíferas são, ao longo de toda uma carreira, deixadas de lado.

Mais do que um talento, enxadristas pensam as próximas jogadas em relação aos computadores que enfrentam, e isso reflete uma habilidade, algo adquirido. Mais do que uma abstração, no entanto, sua inteligência de ação em novas jogadas é determinada não apenas pelas opções e alternativas que eles cogitam mentalmente, mas principalmente por todas as opções que sequer vêm à mente, uma vez que já foram descartadas. Pensar como redesenhar o futuro – e possuir tal habilidade é, cada vez mais, um atributo de poder na sociedade moderna. Não sob a concepção despótica de poder com a qual muitos estão habituados, mas sim sob uma nova óptica. O poder como ferramenta para imprimir mudanças, mas mudanças para melhor. Para desenvolver tal habilidade, mais do que perceber o que devemos aprender ou desenvolver, precisa-se compreender o porquê devemos cultivar tais capacidades. O motivo e o propósito são peças fundamentais para desenvolver o poder, pensar e enxergar o mundo de forma mais clara e ser capaz de imprimir as modificações necessárias para solucionar problemas individuais e sociais. Mas, afinal de contas, onde entra a tecnologia nisso tudo?

As novas tecnologias para construir um futuro smart Antes de seguir para os capítulos que vêm à frente, é preciso deslindar um problema de interpretação que vem sendo levado adiante até mesmo por ícones da mídia. Pensar “smart” não significa usar tecnologias “smart”. Embora os notáveis avanços nas tecnologias de comunicação, transmissão e em áreas como a robótica, a informática e até mesmo a física tenham, em grande parte, sido fundamentais para a criação de um novo modo de pensar, elas não representam esse pensamento de forma direta. Imagine do seguinte modo: uma repartição pública com funcionários destreinados, sem reciclagem de conhecimento e com

práticas que eram comuns apenas nos anos 1970 recebem uma impressora 3D em seu escritório. Sem qualquer função aparente nesse contexto, tirando talvez a curiosidade, e sem que nenhum dos funcionários locais tenha familiaridade sequer com as duas ou três gerações tecnológicas que antecedem a impressão 3D, o artefato torna-se mais uma máquina encostada. Essas tecnologias são, no entanto, gatilhos que podem disparar um raciocínio e uma forma de pensar diferentes – e esse mindset leva à utilização dessa tecnologia de forma a criar soluções, promover melhorias e resolver dilemas de forma mais eficaz. Trata-se de um mindset inovador e com essa nova maneira de olhar o mundo, descobrimos maneiras mais inteligentes de usar recursos, ferramentas e instrumentos – tecnológicos ou não. Guarde esses conceitos e esses verbos daqui até o final deste livro. O futuro, sob essa nova ordem de pensamento, resume-se a uma ideia muito simples, que inclusive explica de forma linear como redesenhar um futuro mais smart. O FUTURO DEPENDE DE ENCONTRARMOS MANEIRAS MAIS INTELIGENTES DE USAR NOSSOS RECURSOS A contar do momento em que consideramos que sempre há um modo mais eficaz e inteligente de usar algo, não importa o quê, o sombrio futuro de escassez e destruição de premiados filmes como Mad Max, O Exterminador do Futuro ou Jogos Vorazes torna-se uma distopia pouco provável e a abundância pode surgir de onde menos esperamos.

100 anos antes de seu tempo Em recente documentário da TV pública norte-americana, o cientista Nikola Tesla, um dos grandes nomes do final do século XIX, aparece no destaque. O

gênio e inventor, cujas ideias revolucionaram a utilização da eletricidade, previu e conceituou a tecnologia que se tornou indispensável décadas mais tarde. O simples saber permite ao homem acessar uma ideia de futuro que, geralmente, aproxima-se da realidade de maneira até constrangedora. Embora carente de recursos que se tornariam abundantes ou disponíveis décadas ou mesmo um século mais tarde, Tesla simplesmente fez uso de rudimentares conhecimentos da época sobre campos e correntes elétricas para vislumbrar possibilidades que iam desde o rádio (cujo inventor, Guglielmo Marconi, acabou por desenvolver com o uso de mais de uma dezena de patentes de Tesla) até a internet wireless e a transmissão de energia por meio de ondas (ainda não viável, mas já provada cientificamente). Sua contribuição fundamental para a distribuição de energia elétrica tornou possível não apenas o uso de máquinas ou o conforto da iluminação em residências. A corrente alternada foi o grande divisor de águas que permitiu o próprio século XX da forma que foi escrito. Obsessivo e perseverante, Tesla arrastou seus ambiciosos projetos até o final de sua vida, falecendo sem grande renome e certamente com pouquíssimos recursos. Sua visão de futuro levou a um preço imenso e, embora Tesla sempre estivesse disposto a arcar com o peso de sua própria imaginação, chegamos a um ponto da evolução humana, agora no século XXI, no qual o exercício da imaginação e a visão de futuro não mais cobram a carga cruel que exigiam nos tempos do cientista.

O FUTURO DAS COISAS Encontrar maneiras mais inteligentes de usar recursos... ou “coisas”. Na sociedade moderna, as necessidades em geral permanecem as mesmas de antes. Entretanto, nossa tecnologia, ciência e pesquisas tornam todos os nossos objetos, equipamentos e aparelhos cada dia mais “inteligentes”. O que isso quer dizer, afinal? Antes de penetrar no conceito, pensemos do seguinte modo. Um ferro de passar roupa possui exatamente a mesma função desde muito tempo. Mesmo que a patente do ferro de passar elétrico tenha sido registrada apenas no ano de 1882, há registros do uso de objetos similares para alisar roupas que remontam ao século IV, na China. Em outras palavras: o ferro de passar em si não é novidade alguma. É apenas mais uma das “coisas” que utilizamos em nosso cotidiano, cuja função prioritária já é definida e não tem sido alterada por anos, décadas ou séculos. Contudo, o ferro de passar possui alguns problemas. Uma vez aquecido, mesmo depois de usado, demora a dissipar o calor. Pessoas desavisadas ou mesmo crianças podem se queimar. Outra, acidentes sérios e mesmo incêndios já começaram por causa de ferros de passar, especialmente os elétricos. Finalmente, quando estamos distraídos, não raramente deixamos o ferro por sobre as roupas demasiado tempo, estragando nossas peças de vestuário de modo irrecuperável. Mas, e se o ferro de passar o “avisasse” de tudo isso? Pois bem. Quanto nos referimos a objetos inteligentes, é exatamente isso que queremos dizer. A visão da maioria em relação a toda uma série de novos objetos e apetrechos inteligentes e conectados é simplesmente a possibilidade de “ligar” essas coisas ao celular ou computador. Entretanto, o conceito de “smart” aqui se refere ao uso, como era de se esperar. Um ferro de passar roupas que evita acidentes é, sem dúvida, “smart”. Contudo, não precisa ser necessariamente algo conectado

ou acompanhar um bonito e complexo aplicativo mobile para tanto. Em termos simples – se ele apitar quando deve, já é um aparelho mais inteligente do que os ferros que vínhamos usando há séculos.

A Internet das “Coisas” Discutido o conceito de smart object, podemos agora falar a respeito dessa nova fronteira da tecnologia. Provavelmente você já ouviu falar centenas de vezes a respeito da dita Internet of Things, ou a “Internet das Coisas”. Voltando ao exemplo do ferro de passar, é claro que um simples apito seria suficiente para tornar o aparelho mais inteligente que seus antecessores. Entretanto, nossa esfera de comunicação mudou. Alertas sonoros são algo que soa até mesmo “retrô” em alguns contextos. Hoje em dia dispomos de tecnologias acessíveis e baratas que transferem alertas, avisos, notificações e comunicações para nosso bolso: o celular. Com esse aparelho, estamos sempre conectados à internet e através dela é que hoje recebemos a maior parte da informação que precisamos para conduzir nossas vidas. Sob essa realidade, o apito “smart” do ferro de passar transforma-se em uma notificação de celular, um comando de vibração ou mesmo um toque personalizado. Esse exemplo é suficiente para compreendermos o porquê da Internet das Coisas estar, hoje, em todas as manchetes de noticiários. Contudo, esse conceito vai muito além do que podemos imaginar. Aparelhos domésticos que dão avisos relativos ao seu uso e funcionamento são apenas a ponta do iceberg.

Conceito simples

Paremos de sofisticar e complicar desnecessariamente. A Internet das Coisas é algo, acredite, bastante simples. Uma definição viável diria que trata-se do conceito de conectar praticamente todo e qualquer objeto ou processo à internet. Ao universo de dispositivos inteligentes ligados à internet que usam conexões para “falar” entre si dá-se o nome de Internet das Coisas. Isso inclui, é claro, celulares e computadores, mas também objetos como o nosso ferro de passar roupas, máquinas de lavar, geladeiras, lâmpadas e até mesmo peças de vestuário. Vale lembrar que um smartphone precisa ser visto como um dispositivo capaz não só de ser um canal de distribuição e recepção de informação, mas também como um sensor inteligente ligado em rede. Em grande escala, falamos não mais de objetos propriamente, porém de sistemas e processos. Plataformas de exploração de petróleo com sondas completamente conectadas e sempre em comunicação com a internet, estradas que passam dados a respeito de circulação de veículos automaticamente e em tempo real, sistemas de acompanhamento de temperatura em escala territorial capazes de prevenir incêndios. Os exemplos nunca terminam. Para se ter uma ideia de escala, especialistas esperam que a Internet das Coisas congregue, até 2020, uma escala mundial de 30 bilhões de objetos e sistemas conectados – e isso exclui computadores ou celulares. Economicamente, estamos falando de um mercado completamente novo e desconhecido até alguns anos atrás, mas hoje capaz de movimentar trilhões ao redor do mundo. E é claro que para a grande maioria o conceito já foi de certa maneira compreendido. Entretanto, a Internet das Coisas vai muito além dos aparelhos que são divulgados com vídeos virais no Facebook. A forma com que essa nova economia é capaz de afetar nossas vidas também extrapola de maneira incalculável o uso que fazemos de nossos objetos pessoais. O que poucos pararam para atinar, até então, é o como esse conceito aparentemente simples pode transformar a maneira com que utilizamos recursos e sistemas, mas não em escala individual, mas sim como sociedade.

Como a Internet das Coisas afeta a mobilidade A mobilidade urbana e os transportes não são um problema novo. O trânsito, problemas generalizados em sistemas de transportes urbanos, preços proibitivos para voos e passagens aéreas, dificuldade de controle em prazos e entregas no comércio internacional. A logística e a mobilidade sempre foram pontos de eterna discussão e pouca resolução. Quando falamos na “Internet das Coisas” relacionada à mobilidade, imediatamente lembramos bikes incrementadas com rastreamento e conexão com celulares ou mesmo os sempre recorrentes automóveis autônomos. Google, Tesla e até GM, mas recentemente, todos na disputa para colocar no mercado, em breve, carros que não precisemos dirigir. Mas será mesmo que a questão da mobilidade resume-se ao conforto ou até mesmo à “preguiça” de dirigir ou conduzir, sob uma esfera extremamente individual. A realidade é que, a despeito do quanto prezemos nosso tempo – e odiemos o quanto somos obrigados a ficar estagnados e presos no trânsito, tanto em cidades quanto estradas – o problema da mobilidade é e sempre foi algo coletivo. Experiências recentes no próprio país mostraram que, em alguns casos, a redução da velocidade máxima permitida, um quesito individual, na verdade pode elevar a velocidade média de fluxo. Poupando este livro de peculiaridades técnicas e matemáticas, basta dizer que tais conclusões são hoje possíveis por uma análise de dados sem precedentes. O tão falado “Big Data”, sobre o qual voltaremos a falar em diversas ocasiões neste livro, colhe dados individualizados de veículos, pedestres, semáforos e até mesmo fatores climáticos, horários de trens e metrôs e médias de horários de entrada e saída de trabalhadores. Com esse amontoado de informação, algoritmos operam e retornam dados de enorme simplicidade – porém baseados no todo. O futuro dos transportes, desse modo, está mais ligado a dados do que a tecnologias extraordinárias, como veículos que flutuam ou trens que rompem a barreira do som. As novidades, obviamente, não

serão poucas, mas aquilo que de fato irá impactar de modo irremediável nosso cotidiano é a inteligência de interpretação e monitoramento de dados nos transportes. Na logística comercial e internacional, isso já está ocorrendo há décadas. Em algumas cidades do mundo sistemas de monitoramento e administração de tráfego já são uma realidade; tempo real dos semáforos controlados remotamente permitem mudar o tempo de fechamento e abertura de acordo com o fluxo de veículos evitando congestionamentos, câmeras instaladas em cruzamentos e semáforos, combinadas com sensores de movimento instalados nas ruas permitem controlar e dirigir melhor o tráfego.

O NÃO exemplo norte-americano Os Estados Unidos sempre foram uma espécie de ideal inatingível no que tange à economia, tecnologia e mesmo sociedade. Entretanto, mesmo com avanços evidentes em políticas públicas, viárias e de transportes, a verdade é que nos dias atuais a mobilidade urbana nos EUA clama por ajuda de forma tão desesperada quanto em países do antigo “Terceiro Mundo”. A Texas A&M University realiza, há anos, um estudo macro sobre mobilidade urbana [3]. O estudo avalia mais de 470 centros urbanos norte-americanos. Segundo dados do estudo de 2015, nos anos de 2013 e 2014, um trabalhador médio norte-americano, deslocando-se em sua região metropolitana, perdia o equivalente a 42 horas por ano no trânsito ou em opções públicas de transporte. Esse volume de perdas, em horas, corresponde a horas pagas de trabalho não recebidas, em razão de atrasos. Em 2010, essa média era de 40 horas, e em 2000, de 37 horas. Parece uma alta mediana, mas quando avaliamos a fundo o estudo, descobrimos que em 1982 o americano médio perdia apenas 18 horas por ano ao deslocar-se para o trabalho. Em termos financeiros, em 1982 perdia-se o equivalente a 400 dólares atuais em ganhos salariais, apenas em decorrência de atrasos e faltas causados pelo trânsito. Atualmente, cada americano deixa de ganhar quase mil dólares pela mesma razão. Como Los Angeles, Chicago ou Las Vegas, e outros grandes centros americanos, o investimento pesado parece nem ter arranhado a questão dos congestionamentos e da escassez de opções de deslocamento nas cidades.

Com base nesse referencial individualizado, estima-se que as perdas anuais para a economia por conta de problemas de mobilidade urbana atinjam US$ 160 bilhões. Mas estamos falando apenas dos Estados Unidos.

Inteligência no que vemos e no que não vemos Os exemplos de como a tecnologia vem sendo usada de maneira inteligente, para lidar com problemas de mobilidade crescentes em grandes cidades, aparecem em todos os lugares. De dispositivos de semaforização inteligente (algo já disponível há anos) a sistemas de análise de estacionamentos e gerenciamento de trânsito, o futuro está apenas à distância da vontade de aplicação de tais metodologias. A Internet das Coisas não se limita aos veículos ou a dispositivos pessoais. Muito pelo contrário – na nova maneira de pensar problemas de mobilidade, esses dispositivos pessoais passaram a ser apenas endpoints para um processo maior e mais inteligente. A partir da submissão de dados simples, como um carro parado ou em movimento, ou ainda ligado ou desligado, é possível traçar processos de inteligência e complexidade incríveis. O conceito da Internet das Coisas relacionada à mobilidade ou mesmo à infraestrutura urbana está relacionado ao fenômeno conhecido cientificamente como “Emergência”. O vídeo How Stupid Things Become Smart Together [4] (ou Como Coisas Estúpidas Tornam-se Inteligentes Juntas) ilustra de modo soberbo o funcionamento desse processo – e a inteligência que dele deriva. Imagine um amontoado de formigas. A grande maioria das espécies é capaz de montar colônias com milhões de indivíduos e construir estruturas complexas e intrincadas. Entre elas, no entanto, a comunicação se dá por não mais do que três ou quatro variáveis diferentes. Em termos individuais, uma formiga apenas comunica ou

transparece às outras sua função e estado. Aos milhões, isso reflete em organização e ordem. O mesmo ocorre em cidades como Copenhagen [5]. Pequenas ações ou comunicações hoje possíveis através da internet permitem que um sistema inteligente identifique melhores rotas, tempos otimizados para semáforos, crie modelos e cenários com previsões de horários de maior tráfego e até mesmo sugira rotas alternativas a cada um dos indivíduos que submete dados. Os dispositivos, ou coisas, quando conectados, oferecem ao sistema pequenos lotes de informação que, quando colocados ao lado de outros milhões de dados, revelam tendências e oferecem respostas.

Organização que cria conforto Geralmente pensamos em organização e em políticas públicas de melhoria nos transportes e mobilidade como algo que, ao menos no curto prazo, cria desafios e exige de todos grandes sacrifícios. Entretanto, respostas simples são capazes de resolver problemas persistentes nesse segmento, e ao mesmo tempo gerar vantagens em termos de conforto para o indivíduo e ambientais para o todo. O aplicativo Shuttl, que opera hoje na região metropolitana de Nova Delhi, na Índia, é um grande exemplo disso. O aplicativo nada mais faz do que permitir que usuários encontrem rotas mais tranquilas para deslocamento na metrópole, em ônibus, e façam reservas on-line em veículos mais modernos e com ar condicionado. Esses veículos poluem menos e a distribuição das necessidades por horários, além das reservas antecipadas, permitem que a empresa que opera o ônibus sempre tenha clientes, e que esses clientes tenham conforto e agilidade. E, como os veículos são mais modernos, emitem um volume de poluentes drasticamente inferior àqueles que operam nas linhas tradicionais e terminais de ônibus da região. O aplicativo ainda influi na questão da decisão de moradia de trabalhadores de Nova Delhi. Uma opção de transporte rápida e confortável permite que muitos residem em regiões mais distantes de seus escritórios – o que reflete preços melhores de imóveis e maior qualidade de vida.

Nos Estados Unidos, o Parkifi é outro aplicativo que utiliza dados simples para criar um serviço e uma inteligência fora do comum para motoristas e também empresários nas cidades norte-americanas. O Parkifi simplesmente oferece parcerias para estacionamentos nas cidades locais, permitindo que vagas disponíveis sejam sempre exibidas e gerenciadas na nuvem. O que “vemos” é o fato de podermos encontrar vagas para estacionar pouco antes de chegar a determinado local. Entretanto, essa solução simples possui a capacidade de reduzir o fluxo de automóveis, especialmente em regiões centrais das metrópoles. Ao invés de circular indefinidamente em busca de lugar ou preços melhores para estacionar, o motorista conduz seu veículo diretamente para algum ponto – reduzindo viagens, trânsito e mesmo emissões de poluentes.

O Futuro da Mobilidade depende da Internet das Coisas. Carros que guiam sozinhos ou aplicativos de táxi aumentam nossa comodidade, mas uma observação mais “smart” sobre os dados que esses dispositivos e tecnologias são capazes de produzir é o que pode criar o fenômeno da emergência em nossas grandes cidades. Talvez essa visão diferenciada nos faça ver, em poucos anos, que a infraestrutura urbana que achávamos defasada até pouco tempo atrás é, na verdade, mais do que suficiente para comportar o número de pessoas residindo na maioria das grandes cidades do país.

Novos “modais” urbanos Pois bem, alguns deles novos e outros nem tanto. As bicicletas, por exemplo, voltaram à tona mais de um século depois com uma cara e uma filosofia completamente renovadas. Não se trata mais apenas de saúde do ponto de vista individual – mas também coletivo. Os valores de menor poluição e estilo de vida mais saudável são apenas a ponta do iceberg na nova incursão das bicicletas no cenário urbano. Ao mesmo tempo, esse antigo “modal” divide espaço com

novos conceitos de uso dos transportes (onde, novamente, o Uber é apenas a ponta do iceberg) e também propostas completamente diferenciadas de infraestrutura de transportes na esfera urbana e interurbana. Da infinidade de novas ideias e conceitos que permeiam o mercado da mobilidade urbana hoje, em termos de novos modais ou rethinking dos tradicionais, podemos congregar esse novo universo em quatro grupos principais: 1. Smart Transport; 2. Estacionamento e Traslados; 3. Conectividade; 4. Infraestrutura Inteligente.

Smart Transport As bicicletas são a vitrine do smart thinking nas cidades modernas em termos de mobilidade. O Brasil recentemente embarcou na “onda” das ciclovias e ciclofaixas, mas críticos à parte, trata-se de uma tendência mundial que já caminha para um avanço de pelo menos uma década. O fato é que o transporte em bicicletas é algo comum há mais de 50 anos, em algumas cidades europeias e também em grandes cidades asiáticas, especialmente na China e Sudeste da Ásia. Entretanto, por décadas, esse transporte foi desorganizado. Bicicletas concorriam com outros modais urbanos em nítida desvantagem – o que levava a acidentes, engarrafamentos, problemas para pedestres, transeuntes e outros. A bicicleta ressurgiu como uma alternativa de smart transport há pouco tempo. As ciclovias e ciclofaixas certamente são parte importante desse renascimento, porém são artefatos de infraestrutura urbana. Na esfera mais próxima do indivíduo, o uso da bicicleta envolvia outros problemas: Terreno e relevo. Usadas sempre como exemplo, capitais europeias como Amsterdã e Copenhague são cidades quase que totalmente planas, com populações urbanas abaixo de 1 milhão

de pessoas e com estruturas de calçamento e ciclovias e faixas existentes há muito tempo. O mesmo não ocorre em cidades brasileiras como São Paulo, Brasília ou Belo Horizonte. Distâncias percorridas são maiores, sem infraestrutura extensa e o relevo acidentado e tortuoso, o que exige tônus de atleta de qualquer cidadão. Orientação. A navegação em bicicletas é mais complexa – o ciclista não possui o ponto de vista dos demais veículos em termos de sinalização, porém também não compartilha com pedestres a óptica do cenário urbano. Sinalização, mapeamento e orientação precisavam ser constituídas especificamente para ciclistas, mas isso não ocorreu ou ocorre de maneira uniforme. Estacionamento e bicicletários. Em especial em cidades com altos índices de criminalidade, a bicicleta nunca ganhou tração. A frequência de furtos e roubos é imensa e, em geral, empresas ou mesmo instituições públicas não dispunham de locais adequados para estacionamento e armazenamento de bicicletas.

Ao invés de simplesmente atacar a esfera da infraestrutura urbana, morosa e burocrática, o conceito de smart transport afetou o mercado de bikes de uma forma focada na solução de problemas. O barateamento de bicicletas com tração elétrica de apoio, assim como a multiplicação e facilitação de kits para conversão de bicicletas em veículos “híbridos”, entre a tração humana e a elétrica, criou espaço para que o relevo e a topografia deixasse de ser um obstáculo à inserção da bicicleta no mapa da mobilidade urbana. Celulares e smartphones passaram a contar com dezenas de aplicativos e adaptações específicas para ciclistas. Mesmo aplicativos mais genéricos, como o Google Maps, já são capazes de traçar rotas diferentes não apenas para veículos e pedestres, mas também para ciclistas. Em todo o mundo, bicicletários passaram a fazer parte dos artefatos urbanos. Baratos e rápidos de montar e implementar, são equipamentos urbanos que geralmente passam ao largo dos

processos burocráticos licitatórios ou mais morosos, criando modificações rápidas e baratas. Alternativamente, pontos de retirada e devolução de bicicletas compartilhadas também vêm ganhando popularidade, mesmo em países mais conservadores – no Brasil a iniciativa já ocorre em uma série de cidades, assim como nos centros urbanos de nossa antiga metrópole, Portugal. Mas as bicicletas sozinhas não são capazes de resolver o problema. Na virada do milênio, quase 20 anos atrás, o problema da mobilidade urbana já apontava para uma direção em comum: menos veículos. Entretanto, a frota urbana mundial segue em ascensão. Não bastasse a frota ainda em crescimento, o próprio avanço geográfico das metrópoles cria um cenário no qual o trabalhador médio precisa deslocar-se através de uma distância ainda maior para chegar ao trabalho ou até sua casa. Com o Poder Público, não apenas no Brasil, mas em qualquer país do mundo, sempre um passo atrás dos números da frota, lampejos de como redesenhar um futuro “smart” vêm se convertendo em ideias simples que podem auxiliar de maneira pontual, mas importante: Sistemas inteligentes de shuttle e transfer, como ZipGo e Shuttl; Empresas de car sharing, como a DriveNow, Getaround e ZipCar; Aplicativos de carona, como o BlahBlahCar; Sistemas de busca de passageiros e procura por condutores, como o Uber e aplicativos diversos de táxis.

Em termos de rendimento, sustentabilidade e autonomia, muitos dos modelos hoje sendo propostos, tanto de car sharing como alguns sistemas de “renting” (uma espécie de mistura entre aluguel e leasing), envolvem carros híbridos ou mesmo elétricos. A tendência já atinge algumas cidades mais modernas da Europa e já possui escala mundial por meio do conceito das Smart Cities.

Estacionamento e traslados Parte considerável do problema de tráfego em grandes centros urbanos envolve não apenas o volume de veículos total na frota, mas outros fatores que, muitas vezes, são postos de lado em programas para gestão de tráfego e otimização da infraestrutura urbana de transportes e deslocamento: A ausência ou impossibilidade de estacionamento eleva o número de carros em circulação; Do mesmo modo, a maior distância percorrida pelas pessoas entre suas residências e o trabalho (o chamado “commute”, em inglês), tende a ampliar as áreas de tráfego intenso; Ainda em relação ao trabalho, turnos e o antigo “horário comercial” concentram um volume brutal de veículos em horários específicos do dia, impedindo melhor distribuição; A inexistência de sistemas baratos e eficazes de traslado e “shuttle” não permite que pessoas se desloquem de casa até o trabalho utilizando um mesmo modal, ou mesmo de cumprir apenas parte do trajeto em seus automóveis.

Políticas públicas e obras de infraestrutura atacam diretamente o crescimento vegetativo e o aumento da frota para tentar resolver o problema dos congestionamentos urbanos. Entretanto, essa já se provou uma guerra perdida. Por mais que os investimentos em malha viária, pavimentação e equipamentos urbanos de tráfego tenha sido maior nos últimos 25 anos do que em todo o restante da história da humanidade, o trânsito e o deslocamento em metrópoles apenas piora. O problema de estacionamento vem sendo resolvido de forma simples e rápida, por exemplo. Aplicativos como o CivicSmart, um sistema de inteligência que conecta parquímetros, redes de comunicação e apps, vem ganhando fama por operar na moderna Dubai. Entretanto, sistemas semelhantes já encontram-se em operação em muitas cidades brasileiras, como São Paulo (para facilitar o

antigo cartão de “Zona Azul”), Santo André e mesmo cidades menores no interior, como Mogi-Mirim. Na área de estacionamentos privados, aplicativos e mecanismos de inteligência artificial vêm atuando em todas as frentes – da reserva e disponibilidade de vagas até o pagamento. Sistemas como ParkWhiz e Parkifi ganham mercado dia a dia atuando com proprietários de áreas de estacionamento. Entretanto, a real inteligência desses sistemas está nos dados. Ao registrar todos os movimentos, entradas e saídas de automóveis e números de vagas disponíveis a cada hora do dia, governos e empresas poderão determinar melhores horários para turnos de trabalho, traçar políticas públicas que interajam com as áreas que realmente representam o problema e até mesmo projeções e previsões, que afetarão as decisões na área de infraestrutura urbana.

Conectividade Sob nosso ponto de vista mais egoísta, redes wi-fi em ônibus e vagões, ou mesmo em aeronaves, são apenas um excelente conforto. Entretanto, sob um viés “smart”, o conforto é apenas um valor adicional gerado por esse serviço aos passageiros. Ao longo deste livro, iremos rever e também prever diversas maneiras com as quais o conforto é um subproduto de algo ainda mais relevante e essencial. As perspectivas de futuro que essa nova mentalidade é capaz de trilhar afastam a concepção arcaica de que para que sejam alcançados objetivos “mais nobres”, grandes sacrifícios têm de ser realizados. A associação de uma grande recompensa com um tenebroso sacrifício é um modo de pensar que simplesmente não faz mais sentido. O futuro relaciona o conforto e a comodidade aos grandes objetivos que têm de ser atingidos. A conectividade ou a democratização das conexões chegou ao segmento de transportes mais recentemente. Empresas aéreas, para as quais até pouco tempo era um tabu indiscutível a abertura de

conexões de internet em pleno voo, já começaram a oferecer tal comodidade. Contudo, não são apenas companhias aeronáuticas de alto luxo, como Emirates, que seguem nessa via. No mundo todo, empresas privadas associam-se com governos e autoridades locais para inserir conexões gratuitas ou acessíveis em trens, autocarros, táxis, bondes, balsas e embarcações e até nos pontos de parada e estações. Sob o argumento simplório do oferecimento de internet à população, reside um ímpeto muito mais nobre: a inteligência e a organização. Após uma década de aprimoramentos quase diários, sistemas de geolocalização como o desenvolvido para o Google Maps ou seus concorrentes agora oferecem um volume brutal de informação em segundos. Condições de tráfego, rotas otimizadas conforme o modal ou veículo, informações comerciais ao longo de trajetos, tempos e saídas de trens, ônibus e aviões, locais para hospedagem e muito mais. Tal volume de dados não foi introduzido nos sistemas do Google Maps por ninguém mais do que nós mesmos. Conectados com nossos planos de 3G ou 4G, fornecemos em tempo real toneladas de informações que são apenas tratadas e organizadas por algorítmos e processos desenvolvidos pelo Google. Pode-se dizer que o “preço” para garantir um sistema de geoposicionamento e orientação riquíssimo, que funcione em todo globo, foi na verdade nosso próprio conforto. Mesmo em sua aurora, ainda com poucos recursos e diversas falhas, o Google Maps não exigiu “sacrifícios” de seus usuários. Por mais primário que fosse o programa em seu início, ele fornecia orientações úteis com as quais os utilizados sequer podiam contar antes de sua criação. Como veremos em outros segmentos, o pensamento redesenhar o futuro no formato “smart” permite que testes e experiências concedam benefícios às “cobaias”. O valor entregue já tem lugar, mesmo nos primeiros passos de uma iniciativa, e mesmo em casos nos quais um projeto não segue adiante, são raros os casos de perda ou penalização. Esse tipo de raciocínio aplicado aos transportes rendeu grande retorno junto aos órgãos decisores do segmento. Hoje, algumas

dezenas de empresas especializadas na estruturação e implementação de sistemas wi-fi móveis e no processamento dos dados que podem ser gerados dessa forma estão em rápido crescimento – oferecendo um conceito simples e rápido para resolver insistentes problemas de transporte e, como bônus, concedendo a autoridades e governos pontos extras junto à população. Companhias como Filament ou Veniam deverão expandir a conectividade dentro da mobilidade urbana de maneira impressionante apenas nos próximos dois ou três anos, e toda a informação resultante dessas iniciativas criará uma nova óptica sobre as questões relacionadas a transportes dentro da administração pública.

O fim da era das megaconstruções? Na verdade... não. Soluções simples e rápidas para grandes problemas não eliminam os projetos grandiosos e ambiciosos que podem ser conduzidos na área de mobilidade. A visão simplificada do processo apenas cria a possibilidade de “megaconstruções” que realmente apontem para a eternidade. As obras faraônicas e projetos urbanos e viários de infraestrutura sempre tiveram um grande problema: a possibilidade de obsolescência. Em todo o mundo, diariamente, gradiosas obras na área de transportes do século XX mostram-se inadequadas, insuficientes ou mesmo inúteis no contexto atual. Em sua época, foram respostas “suficientes” aos problemas existentes. Em alguns casos, os resolveram, mas às custas de sacrifícios e da criação de novos e diferentes problemas e dilemas. São obras como o famigerado “Minhocão”, na cidade de São Paulo, e o próprio Eurotunnel, entre Inglaterra e França. Obras que resolveram de maneira ambiciosa alguns problemas, às custas de enormes prejuízos ou mesmo desconforto para a população. Níveis dantescos de intervenção humana e urbana, e inconsistência em relação a lucros, sustentabilidade e até mesmo estética em alguns casos.

As novas megaconstruções precisam ser pensadas sob diferentes ópticas. Precisam ser grandiosas, para resolver grandes dilemas da sociedade. Contudo, precisam ser igualmente ambiciosas em relação ao modo com que NÃO devem afetar aquilo que já funciona. E, sob o viés smart, seja na mobilidade ou em qualquer outra área, a simplicidade no olhar é o que possibilita a criação de novos e maiores problemas. A tecnologia parece mesmo ser a grande chave para a continuidade das megaconstruções no mundo. Materiais precisam ser mais duráveis, a energia necessária precisa ser mais sustentável, o tempo de construção precisa ser mais ágil e, acima de tudo, ser smart significa criar conforto não apenas após, mas também durante a resolução do problema. Um conceito tem ganhado força nesse sentido ao longo dos últimos anos. A chamada “Construtech”, ou nada mais do que a realização de projetos civis com o emprego de tecnologia de ponta e processos inovadores, ganha espaço à medida que desafios que antes consistiam em verdadeiros sonhos tornam-se possíveis: Um túnel sob a cordilheira dos Alpes; Uma ponte para cruzar todo o Estreito de Bering; Aeroportos construídos em ilhas artificiais; Arquipélagos inteiros desenvolvidos pelo homem; Edifícios com mais de um quilômetro de altura; Sistemas e malhas ferroviários com propulsão por campos magnéticos.

Mas o conceito de Construtech traz mais um grande paradigma em sua definição. Construir obras e novas maravilhas do mundo não é o único objetivo. O profundo conhecimento da cadeia de valor na construção civil é um requisito fundamental nesse novo conceito de engenharia. Por décadas, o “entendimento” de cadeia no segmento de construção civil compreendia a indústria de materiais de construção como ponto de partida. Hoje, entende-se por cadeia de valor todo o caminho que segue desde a extração de ferro, bauxita ou clínquer, no segmento de mineração, até o setor de mobiliário, decoração e

projetos de design de interiores. Uma visão 360º que vem reduzindo não apenas custos, mas também o impacto ambiental e social causado por obras desse porte. A Construtech é uma ideia que compreende que os impactos ambientais e conjunturais de uma grande obra não se restringem apenas à “interferência” física do projeto, mas também ao seu viés econômico, social e ambiental, seguindo desde as primeiras etapas de extração e beneficiamento dos recursos a serem utilizados até suas consequências e sua “pegada”, anos após a execução.

Como a Internet das Coisas afeta a energia Quando fala-se em megaconstruções e obras de infraestrutura, é impossível não considerar um novo olhar sobre um dos maiores e mais recorrentes problemas da sociedade: a energia. Mesmo em nível celular, precisamos de energia para sobreviver. Aquilo que bebemos e comemos leva a reações químicas capazes de produzir energia em nossos corpos, de modo que possamos realizar nossas tarefas diárias, crescer e nos desenvolver e até mesmo conduzir nossos grandes e ambiciosos projetos. De certo modo, os avanços tecnológicos e também de mentalidade permitiram que nós pudéssemos, num horizonte de pouco mais de um século, tornar nossa própria existência mais sustentável. O ser humano hoje vive, em média, 70, 80 ou mesmo 90 anos, a depender do país, região ou classe social. Nossos hábitos tornaram nossa vida mais sustentável e, embora geneticamente não tenhamos sofridos grandes alterações em relação aos nossos antepassados mais próximos, somos capazes de viver mais do que eles jamais sonharam em viver. Contudo, essa noção de sustentabilidade e esse uso inteligente da tecnologia em prol de uma existência mais longa e melhor não se limita ao campo fisiológico. Infelizmente, enquanto nos preocupávamos em garantir que nossas vidas pudessem ser mais longas, pouco fizemos para que a vida no cenário que habitamos pudesse ser sustentável em nível similar.

E, nesse caso, a energia possui um papel fundamental. Ainda que a humanidade sempre tenha observado a energia como um problema a resolver, estivemos por quase toda nossa existência na natureza preocupados em garantir que tivéssemos suficiente energia para evoluir e crescer. O “como” essa energia era conseguida ou não jamais foi o foco das preocupações. Em nosso Brasil, de matriz sobretudo hidrelétrica, poucos fazem ideia de que a maior parte da produção mundial de energia ainda depende do petróleo e mesmo de fontes e matérias-primas ainda menos sustentáveis e mais arcaicas, como o carvão. Governos de todo o mundo incrementam esforços para ampliar a participação de energias renováveis em suas matrizes energéticas, entretanto isso não é, necessariamente, uma revolução “smart” no segmento de geração, transmissão e distribuição (GTD) e sim uma reação tanto ao esgotamento de combustíveis e outras fontes de geração quanto a pressões da própria sociedade. O barateamento de algumas tecnologias com o ganho de escala e inovações constantes também criaram uma janela de competitividade para a energia eólica ou solar, por exemplo, contudo na maioria das circunstância, tais empreendimentos ainda exigem subsídios (e são realizados muitas vezes com olhos em benefícios e maiores preços pagos pelo Megawatt-hora “limpo” nos sistemas interligados e redes nacionais de eletricidade).

Onde está o “smart” no campo energético? Não há como negar: precisamos lançar mão, nos próximos anos e décadas, de recursos como a luz solar, ventos, marés e correntes oceânicas e até o calor do subsolo para gerar e converter energia suficiente para manter nosso estilo de vida. Contudo, mesmo a mais bem intencionada das iniciativas governamentais para construção ou licitação de projetos de energia limpa é ainda hoje reativa. Em função de pressões internacionais, certificações de competitividade e outros benefícios, países têm

investido em matrizes alternativas. Qual o problema disso? Não há aí um pensamento “smart”. A questão é que, não apenas no Brasil, mas cobranças regulamentares e certificações impositivas levam o mercado exatamente até o ponto que é fixado em lei: o mínimo necessário. Cientistas de todo mundo preconizam há décadas que, caso permaneçamos usufruindo dos recursos energéticos globais do modo que fazemos, esgotaremos grande parte deles em poucas décadas. E, infelizmente, o mínimo necessário não é suficiente para reverter esse quadro. Quando fala-se no conceito “smart” em termos energéticos, geralmente concentramo-nos no usuário final, o próprio consumidor, ou no mercado infraestrutural de geração de energia. Contudo, diversos pontos da cadeia intermediária, além dos consumidores “reais” de energia (empresas e agronegócio) já têm acesso a ferramentas e conceitos que poderiam revolucionar, talvez da noite para o dia, o que entendemos por oferta de energia. O conceito de smart energy, sob a luz da Internet das Coisas, não pode ser compreendido sob a óptica dos gadgets para uso individual – é preciso olhar as coisas sob outros viéses: Pessoas físicas e consumidores residenciais, tipicamente, respondem por não mais do que 10% ou 15% de toda a demanda energética no mundo; A tecnologia capaz de criar um uso mais inteligente da energia, ao contrário do que muitos pensam, tem seu ponto focal na distribuição de energia; Informação, para o sistema de geração, transmissão e distribuição de energia, é tão ou mais relevante que o uso de matrizes sustentáveis para o segmento.

Claro que tecnologias e soluções simples em escala residencial são parte do movimento de aplicação da Internet das Coisas na área de energia. De sensores de presença a controles de redes residenciais por meio de aplicativos, pequenos dispositivos conectados vêm ajudando as pessoas a reduzir seu consumo médio e criando aparelhos com maior eficiência na conversão de energia.

Lâmpadas que utilizam dados de iluminação, previsão do tempo e ciclos de nascer e pôr-do-sol, por exemplo, regulam a luminosidade de ambientes conforme o grau de insolação. Com isso, mesmo ligadas, lâmpadas gastam apenas o necessário para manter uma iluminação interna equilibrada. É uma gestão ainda mais eficiente do que sensores de presença ou comandos que desligam a iluminação quando saímos de casa. São dispositivos inteligentes que reagem às condições existentes em seu entorno. O mesmo ocorre com gadgets de regulagem de temperatura e climatização. Alguns anos atrás, o Google adquiriu uma empresa que começava a ficar em voga no segmento de smart home: a Nest. O único produto, na ocasião, era um termostato residencial. Por detrás da aparente vulgaridade do equipamento, havia todo um mercado de sustentabilidade, conforto e apelo para um uso mais inteligente dos recursos energéticos. O termostato da Nest é capaz de reduzir o consumo de energia ao mesmo tempo em que cria uma atmosfera mais agradável em casa. Além de reagir a dados de temperatura, meteorológicos e de presença dos moradores, o equipamento usa tecnologia conectada para “aprender” sobre os hábitos dos residentes – criando configurações dinâmicas que cruzam mais conforto com economia. Que fim levou o Nest? Na verdade, atualmente, o produto é apenas um dentre dezenas de soluções de smart home produzidas e assinadas indiretamente pelo Google: sensores inteligentes para prevenir incêndios, câmeras de segurança conectadas e com streaming em tempo real, porteiros eletrônicos tão inteligentes quanto os celulares mais recentes do mercado e sistemas de alarme residenciais e comerciais. O que foi visto, de certo modo, como uma “hype” por parte do Google abriu caminho para pequenas melhorias e tecnologias que hoje permitem que se economize energia e calor em mercados que utilizam sistemas de calefação e ar condicionado de forma muito mais intensa do que o brasileiro. De forma curiosa, toda a aura de novidade que vemos no uso de campos e em seu controle advém de uma visão do cientista Nikola Tesla, mais de 100 anos atrás. Como vimos anteriormente, Tesla desenvolveu estudos e, principalmente, vislumbrou conceitos que

apontavam para muito do que estamos hoje cogitando e aprimorando em termos de indução magnética, campos eletromagnéticos e desenvolvimento de circuitos e sistemas sem fios.

A revolução das distribuidoras O interior de São Paulo vem realizando pequenas modificações imperceptíveis na rede elétrica há quase uma década. Por anos a fio, engenheiros e técnicos da CPFL operam pontos específicos da enorme área atendida com tecnologias que irão estar em praticamente qualquer zona urbana brasileira em breve: tudo em favor do chamado “smart grid”. Grosso modo, o smart grid não é algo novo. Entretanto, o processamento do universo de dados que o sistema gera é novidade. O smart grid nada mais é do que uma rede elétrica de distribuição controlada por computadores. Se um ramal ou transformador apresenta defeito, ainda à distância técnicos são capazes de isolar o problema a uma área consideravelmente menor. Com dados em longo prazo, podem identificar focos de ineficiência dos equipamentos, desperdícios de energia, circuitos em curto e transformadores e outras peças em deterioração ou prestes a apresentar falhas. Com a tecnologia de smart grid, embora não necessariamente benefícios revertam em um consumo menor ou em fontes de geração mais sustentáveis, reduz-se o desperdício e aumenta-se o conforto para a população. E, com menos energia sendo desperdiçada, reduzse também a demanda: menos recursos precisam ser utilizados na geração e a rede se torna mais estável e eficiente. Com o avanço e regulamentação do mercado livre de energia e da figura do microgerador, o smart grid tornou-se uma ferramenta ainda mais indispensável. Em mercados maduros, como nos Estados Unidos e alguns países europeus, consumidores que geram excedentes a partir de fontes renováveis em escala residencial ou

microempresarial recebem “créditos” para devolver seu excedente para a rede. No smart grid, essa geração de créditos e entrada de tensão proveniente de consumidores é automaticamente processada, contabilizada e distribuída. Em termos práticos, isso significa que se seu vizinho produz energia solar, ele pode estar sendo sustentável o suficiente para a residência dele, a sua e talvez mais duas ou três casas no bairro. O conceito de smart da rede atual e o barateamento de aparelhos para autogeração em pequeno porte criaram um interesse por parte do todos em usar e gerenciar recursos de forma inteligente no campo energético. Observando alguns anos à frente, pode-se dizer que a lógica da distribuidora mudou para uma espécie de “web 2.0 da eletricidade”. A internet, em seu início, oferecia uma rede para o tráfego de informação de maneira quase unilateral – usuários, por meio de seus “terminais”, acessavam informações que se encontravam em servidores. Com a Web 2.0 e as redes sociais, o usuário passou ele, também, a ser uma fonte de informações. Todos acessam a informação produzida por todos. A rede elétrica, com o avanço do smart grid, caminha para esse mesmo ponto. Produtores e consumidores se confundirão cada vez mais, até o momento no qual não haja quase nenhuma diferença entre ambos. Mas não são apenas a geração e distribuição de energia que vêm se tornando mais inteligentes. A principal questão que pautou os avanços tecnológicos no campo da energia elétrica na virada do século foi o consumo. No Brasil, os anos de 2000 e 2001 foram marcados pelo tétrico “apagão”. A morosidade dos projetos públicos e de infraestrutura na área de geração e transmissão, somada à falta de inteligência no consumo e abastecimento, levaram a blecautes que assolaram o país por meses. Mesmo antes que o conceito agora difundido de “Internet das Coisas” pudesse se consolidar, o campo do consumo energético passou a fazer uso intenso de sensores e instrumentos de medição para balancear e equilibrar desperdícios e tornar a relação consumo e rendimento mais eficiente.

A iluminação pública, em destaque, foi talvez o segmento que mais se beneficiou do emprego de sensores. Primeiramente, apenas sensores simples, baseados na fotossensibilidade. Em outras palavras, lâmpadas de iluminação urbana capazes de medir a intensidade de luz natural de forma automática, acionando seus circuitos apenas quando realmente necessário. Os benefícios diretos implicam em um menor consumo e também na desnecessidade de controle humano na rede de iluminação das cidades. Com o tempo e a evolução dos sistemas e sensores, hoje a fotossensibilidade é apenas parte da inteligência embarcada em postes e pontos de iluminação. A própria intensidade de luz pode ser regulada e dados recolhidos em grande volume alimentam centrais de inteligência artificial, que podem efetuar cálculos e realizar simulações que permitem não apenas prever o consumo para anos à frente, mas também criar estratégias e modelos que permitam uma economia de energia ainda maior, com uma taxa de iluminação ainda mais eficiente. Um dos primeiros sistemas de iluminação pública realmente inteligentes foi patenteado ainda em 1999. Desde então, vem sendo instalado e utilizado em muitas cidades do mundo. Em 2006, por exemplo, a cidade norueguesa de Oslo decidiu instalar 55 mil postes de iluminação para reduzir o consumo energético com esse segmento em 50%, aumentando a segurança de seus habitantes ao mesmo tempo. Quando falamos em sensores, a maioria imagina que simplesmente isso implica em postes que “acendem” quando há alguém por perto. Isso procede, porém o sistema de iluminação é muito mais inteligente que isso. Sistemas sendo hoje instalados trabalham com sensores de proximidade, mas também permitem a comunicação entre pontos de iluminação próximos. Ao invés de um pedestre caminhar, por exemplo, com um ou dois postes apenas próximos de si, acesos com sensores de presença, avança assistindo aos pontos de iluminação mais à frente acenderem lentamente, mesmo antes que chegue, enquanto aqueles que deixa para trás se apagam compassadamente. Ao fazer curvas ou mudar de rota, lâmpadas acendem quase que “adivinhando” o caminho que o pedestre fará logo a seguir. Longe de

ser mágica, esses sistemas trabalham sobre camadas de comunicação de cada um dos sensores ao redor do pedestre, ao mesmo tempo em que utilizam algoritmos que permitem definir, com enorme precisão, os próximos passos da pessoa – o resultado são lâmpadas que acendem no caminho que você ainda irá tomar, quase como um videogame da vida real.

Energia e blockchain Ainda falaremos sobre a tecnologia de blockchain, que ganhou as primeiras páginas de todos os grandes sites de notícias do mundo ao ser impulsionada pelo Bitcoin e outras criptomoedas. O uso do sistema de blockchain para validação e autenticação de transações, no entanto, tem aplicações praticamente infinitas. O campo de energia não é uma exceção a isso. O smart grid das distribuidoras permite que, por meio delas, consumidores que gerem excedentes por meio de fontes alternativas e residenciais recebam créditos ou mesmo “vendam” sua energia para distribuidores. Entretanto, assim como ocorre com o mercado de criptomoedas, a aplicação do blockchain permitiu a criação de uma rede na qual, sem qualquer centralização ou controle, consumidores podem revender sua energia extra para outros consumidores. Uma espécie de peer-to-peer de energia elétrica. A Brooklyn Microgrid, em Nova Iorque, foi criada de forma a conectar toda a rede de energia elétrica. A empresa, recente, diz usar a tecnologia de blockchain de modo a permitir a troca de energia (e não apenas créditos ou “vales”) entre consumidores finais. O projeto chama-se TransActive Grid, e resulta de uma parceria entre a Brooklyn Microgrid e os desenvolvedores de tecnologia blockchain da ConsenSys. Contudo, o conceito “smart” aqui não está apenas na possibilidade de venda de energia entre vizinhos. A transmissão de energia elétrica gera perdas – quanto maior a distância de transmissão, maior o volume de perda de potência ao longo do caminho. No Brasil, por exemplo, onde a matriz principal ainda é a hidrelétrica, distâncias percorridas por linhas de transmissão chegam a milhares de quilômetros.

A proposta da Brooklyn Microgrid conecta não apenas “peers”, mas oferece maneiras de garantir que a energia percorrerá um caminho menor – gerando menos perdas. A ConsenSys, para operar o projeto até o momento, utilizou a mesma lógica de blockchain aplicada numa das principais criptomoedas hoje em atividade, o Ether [6].

Como a Internet das Coisas afeta a prevenção de riscos A Internet das Coisas gerou uma inteligência estatística e matemática com infinitas aplicações. Fenômenos que exigiam cálculos praticamente impossíveis de lidar para sua prevenção e antecipação se tornaram mais previsíveis e administráveis com o volume de informações e interação de dispositivos criados pela Internet das Coisas e pelo Big Data. Isso tudo tem um aspecto crucial dentro de um dos maiores problemas enfrentados até hoje pela humanidade: os grandes desastres naturais. Terremotos, maremotos, tornados, tempestades, incêndios e tantos outros desastres de difícil previsão e rápida proliferação foram responsáveis, ao longo da história, pela perda de milhões de vidas humanas e, como comprovam algumas evidências históricas, até pela dizimação completa de algumas sociedades e civilizações.

Da pequena para a grande escala A Internet das Coisas, em pequena escala, oferece inúmeros dispositivos que, por meio de sensores e instrumentos de leitura e

armazenamento de dados, são capazes de detectar padrões e analisálos ao longo do tempo. Imagine, por exemplo, uma indústria. Uma linha de montagem oferece a trabalhadores alguns riscos inerentes – quedas, deslocamentos, fogo, entre outros. Com dados referentes a todos os incidentes já ocorridos, sensores hoje podem prever ou até mesmo evitar rotinas e comportamentos que elevem a exposição a esses riscos. Na prática, a Internet das Coisas não “adivinha” quando um desastre irá ocorrer. Em lugar disso, ela oferece dados que apontam em que direções as estatísticas demonstram riscos imensos, e permitem a gestores tomar decisões que afastem a produção desses riscos, reduzindo ocorrências. Em grande escala, o mesmo ocorre. Talvez ainda leve séculos ou milênios até que a humanidade seja capaz, de fato, de evitar a ocorrência de um furacão ou terremoto. A dimensão desses eventos torna praticamente qualquer máquina ou ação já criada pela humanidade tão ínfima que é incapaz de produzir qualquer efeito no sentido de impedir a existência desses desastres. Contudo, a inteligência e as informações geradas hoje por sensores, dispositivos e pela própria comunicação entre as pessoas que estão perenemente conectadas à rede produzem informações que permitem antecipar esses desastres com grau de confiabilidade nunca antes visto, e também com horas ou dias de antecedência – um luxo inexistente até então. A óptica smart nos permitiu olhar para alguns dados de maneira diferente. Os esforços humanos, até muito pouco tempo atrás, sempre apontaram para tentativas de “contenção” desses desastres. É como se soubéssemos que muitos iriam morrer ou sofrer com esses eventos naturais, mas simplesmente tivéssemos como única opção o uso de estratégias para reduzir levemente seu impacto: Diques e barreiras de contenção em rios; Estruturas com maiores e mais profundas fundações em áreas sujeitas a terremotos; Edificações mais baixas e horizontalizadas em regiões afetadas por tornados e furacões.

Os exemplos são inúmeros, mas deixam um ponto muito evidente: nunca conseguimos prever a força dos elementos, apenas estávamos relativamente preparados para ela. Entretanto, o clima é algo em constante mudança e também a incidência e comportamento dos desastres naturais. Zonas hoje poupadas por terremotos ou ventos fortes podem se tornar regiões perigosas num futuro próximo. A Internet das Coisas permite agora, entretanto, pela primeira vez na história humana, criar intervalos maiores de preparação e gestão. As poucas horas que sensores, dispositivos de comunicação e aparelhos conectados conseguem hoje dar a autoridades no sentido de gerir, evacuar ou mesmo proteger áreas afetadas criaram uma possibilidade de decisão inédita: hoje podemos tomar decisões ANTES desses desastres. Quem se lembra do desastre do furacão Katrina nos Estados Unidos irá recordar que, mesmo com toda a infraestrutura, recursos e capacidade do maior governo da Terra, populações afetadas pelo furacão e pelas enchentes que se seguiram levaram vários dias até que pudessem ser atendidas, socorridas e abastecidas após o desastre. Claramente, nas poucas horas que antecederam o furacão, autoridades pouco puderam fazer no sentido de preparar tais populações para enfrentar as dificuldades que viriam após o desastre. A falta de dados históricos de rápido acesso sobre desastres similares na região impediram especialistas de prever as semanas que se seguiriam ao furacão e a ausência de sensores e dispositivos que possuímos hoje tornaram a detecção de zonas seguras uma mera aposta – perdida pelo governo dos Estados Unidos. A tecnologia e o pensamento smart, atualmente, fariam com que dados hoje de fácil acesso por meio da leitura de termostatos inteligentes residenciais, termômetros de automóveis e até mesmo observações e fotos tiradas por pessoas nas redes sociais fossem transformados em base científica e matemática para tomar decisões com maior antecipação e maior margem de segurança no caso do Katrina. Nos meses que se seguiram à tragédia, muitos pereceram simplesmente por estarem em regiões tecnicamente seguras, porém afetadas de maneira posterior ao desastre – algo que, na internet atual, seria previsível por meio de observações simples das pessoas

em redes sociais ou registros auferidos por objetos inteligentes e conectados nos dias de hoje, como aparelhos de climatização ou mesmo regadores em jardins no sul dos EUA. Um estudo recente realizado por chineses, por exemplo, demonstrou que enchentes decorrentes do derretimento de massas de neves podem ser antecipadas com enorme grau de confiança e grandes períodos com o uso da Internet das Coisas [7]. O sistema protótipo idealizado pelos chineses permite que sejam usados dados de geolocalização e posicionamento, leituras de dispositivos ligados à internet e dados presentes na nuvem para antecipar enchentes ocorridas por causa do derretimento de neve em regiões áridas ou semiáridas da China. Os mesmos dados, posteriormente, poderiam ainda ser usados em estudos de gestão hídrica, como sugere o mesmo estudo. Não se trata necessariamente de uma “descoberta”. A verdade é que, no caso desse estudo chinês e de muitos outros na área de prevenção de riscos, especialistas estão lançando um olhar smart sobre dados e informações já existentes – as pequenas informações e leituras geradas por um número cada vez maior de dispositivos e pessoas conectadas à rede criar todo esse volume de informação. Nossas grandes descobertas, cada vez mais, estão associadas ao modo com que “olhamos” para os recursos e informações que possuímos, e não na criação de novas teorias ou produção de informações e dados a partir do zero.

O FUTURO DA INFORMAÇÃO Ao ligar a televisão ao longo da década de 1990, ouvíamos com frequência em qualquer grande noticiário uma previsão – estávamos no limiar da Era da Informação. Fascinados com a recémpopularizada internet, formadores de opinião divertiam-se ao imaginar como mensagens de texto que corriam daqui para ali em emails rudimentares e websites que compreendiam “caixas” distribuídas com textos pela tela de um computador iriam mudar tudo. O começo da Era da Informação enfrentou uma multidão de incrédulos. Ainda em 1995, as grandes capitais brasileiras já tinham algum acesso à internet discada. Algo surreal para os jovens de hoje, mas seus pais já pertenceram a uma geração que, de fato, conviveu com a internet desde a adolescência. Hoje ainda se fala em Era da Informação, mas a verdade é que passamos a um novo estágio dessa era, senão a uma próxima, completamente nova. A internet já é parte do cotidiano de pelo menos três gerações – as crianças de hoje aprendem assistindo vídeos e acessando websites e redes sociais na web, comunicam-se por meio de apps de mensagens e suas brincadeiras, em 90% dos casos, envolve algum tipo de equipamento ou apetrecho conectado. A Era da Informação está ficando para trás. Quem tem trinta e poucos ou quarenta anos sabe bem disso. Também estudaram, todos eles, usando a internet para consultas. Com seus amigos de colégio e faculdade, trocavam e-mails para combinar noitadas e, em muitos casos, até mesmo namoravam on-line – os pais da atual geração, em número significativo, conheceram-se em precursores dos apps de mensagens e redes sociais de hoje em dia: MSN, ICQ, Orkut e tantos mais. Tudo isso evoluiu – a informação não apenas cresceu em termos de volume, mas de qualidade e todos os processos que cercam esse recurso sofreram mudanças que caracterizaram uma verdadeira revolução. A Era da Informação, em seu cerne, está atrelada a três fatores principais:

1. A expansão da informação; 2. O armazenamento da informação; 3. A transmissão da informação.

Em todas essas três vertentes, avanços dos últimos dez anos superam exponencialmente os realizados nos cinquenta anos anteriores. Dispositivos de armazenamento de hoje podem guardar dezenas de vezes mais informações e dados do que há uma década, enquanto que a velocidade de transmissão da informação avançou centenas, senão milhares de vezes. Nos tempos da grande bolha Pontocom, em 2001, a grande maioria dos usuários da rede, que na altura compreendiam não mais do que 5% da população mundial, acessavam dados e informações on-line com velocidades que variavam entre 28 e 256 kilobytes por segundo – hoje falamos em 100, 200 ou 500 megabytes por segundo.

A expansão da informação Todos nós ouvimos, quase que diariamente, noticiários falarem que mais informação foi produzida no mundo nos últimos meses do que em toda a história da humanidade. Não se trata de um exagero. Tente pensar as coisas de forma simples, apenas considerando a si mesmo enquanto mais uma das pessoas que, cotidianamente, utiliza a internet. Cada um de seus posts em redes sociais é uma informação que será transmitida e armazenada, cada e-mail, cada mensagem em apps ou via SMS. Cada ligação que fizer, vídeo que filmar ou fotografia que tirar. Sua posição é constantemente medida e usada por softwares e sistemas para a atualização de mapas e aplicativos sobre o trânsito. Alguns dos jogos que usamos durante viagens de trem ou metrô geram mais informação. Se você não é um heavy user, mas apenas mais uma pessoa conectada em uma rotina diária, fatalmente irá ter gerado algumas

dezenas de megabytes de informação ao final do dia. Com mais de 2 bilhões de pessoas conectadas no mundo, estamos falando de mais de 2 mil Petabytes. Para imaginar de modo mais “físico”, basta dizer que, se você utiliza em seu computador um HD de 1 Tera, a informação gerada no mundo em apenas um dia seria suficiente para encher 2,2 milhões de HDs como o seu. Esse é o chamado “Big Data” – estima-se que quase 90% de toda informação já gerada pela humanidade tenha sido gerada apenas nos últimos dois anos.

O armazenamento da informação A tecnologia avança a passos largos. Dispositivos de armazenamento de hoje possuem capacidade 10, 20 ou mesmo 1000 vezes maior que os da década passada. Ainda assim, não é suficiente... Parece que, por mais que avancemos, armazenar um volume brutal de dados diário não é algo a se fazer fisicamente. A nuvem parece ter resolvido o problema, porém a internet é, na verdade, um reflexo de dezenas de milhões de servidores interconectados 24 horas por dia – e eles têm um limite de espaço para armazenar dados também. O pensamento de redesenhar um futuro mais smart, no mundo gerido pela informação, deixou de ser apenas algo voltado à coleta de informações e dados – é preciso ser inteligente também no modo com que armazenamos essa informação. Voltamos a falar “binário” e disciplinas de programação e lógica de computação passaram a fazer parte do cotidiano de nossas crianças e jovens. No futuro próximo, aprenderemos a nos comunicar melhor com um menor volume de informação transmitida. Ainda assim, o armazenamento precisa de tecnologia. A manutenção desses computadores consome energia e demanda

tempo e o virtual ainda é mantido às custas de um “real” oculto, que precisa de cuidados.

A transmissão da informação Mais informação sendo coletada e armazenada necessariamente significa um maior volume de transmissão de dados. Dia após dia, operadoras e empresas de telecomunicações disputam uma corrida pela rapidez de conexões e bandas – 3G, 4G, 5G e agora já falamos em 5G “plus”. A velocidade do fluxo de dados cresce em ritmo alucinante para acomodar uma população que já não dissocia o ato de estar conectada da sua vida normal. Ainda que o crescimento e aumento da velocidade não pareça ser um problema, a desigualdade de condições de acesso existente entre os vários públicos que hoje utilizam a rede pode ser um fator complicador da comunicação nos próximos anos. Basta imaginar uma troca de mensagens usando recursos audiovisuais entre alguém com acesso a uma banda 3G e outra pessoa com conexão 5G – um ponto do diálogo teria uma velocidade até 100 vezes superior à outra, o que pode criar atrasos, falhas de comunicação, ruídos e outros. A transmissão e seu alinhamento e balanceamento em nível global é o terceiro fator de definição na Era da Informação. Contudo, o advento da web 2.0, a criação de mídias que interagem não mais apenas com “mídias”, mas também com objetos e ambientes, começa a desenhar uma próxima era. Nela, os três atributos principais da Era da Informação são ainda importantes, porém irão operar no âmbito dos recursos e do background – assim como hoje ainda precisamos de indústrias que produzam objetos e equipamentos que nos permitem comercializar e vender informação e conteúdo, na próxima era, teremos a informação como canal e recurso... mas, afinal, onde estará a geração de valor?

Os 3 Vs do Big Data Os dilemas e desafios da informação estão hoje concentrados nos rumos do Big Data. Além de questões relativas à privacidade (ou à falta dela), a forma com que esse corpo de dados e informações evoluirá irá determinar o modo com que apreendemos e lidamos com a informação como sociedade. Doug Laney [8], ainda em 2001, quando o Big Data era mais um conceito do que uma instituição, como é hoje, criou o conceito de análise tridimensional do Big Data – os três Vs. Segundo o modelo, deve-se observar o aprimoramento das informações conforme três variáveis: 1. Volume; 2. Velocidade; 3. Variedade.

O eixo do volume parece, de certo modo, óbvio. Produz-se hoje mais dados em um único dia a partir de pesquisas através do Google do que todo o volume de documentos impressos armazenados na Biblioteca do Congresso nos Estados Unidos – e esse comparativo é algo que foi estabelecido em 2016. O eixo do volume não avança, contudo, apenas sob a óptica do armazenamento – Gigabytes, Terabytes ou Petabytes. Há que se considerar como volume o número de transações, de conexões, tabelas de dados e, em última instância, o próprio crescimento populacional. Cada ser humano que nasce é, atualmente, uma unidade capaz de produzir ao longo de sua vida um volume impressionante de dados e informações – e esse potencial de produção de dados apenas tende a crescer. A velocidade é outro dos eixos de análise. Naturalmente, quanto maior o volume de dados transacionado e armazenado dentro daquilo que vulgarmente conhecemos como Big Data, maior precisará ser sua velocidade de processamento e acesso.

O modo com que acessamos informações também é algo que sofreu severas transformações e, portanto, passou a exigir uma velocidade ainda maior de acesso e conexão. Vinte anos atrás, era perfeitamente aceitável aguardar por arquivos e downloads, ou mesmo até que computadores processassem informações. A caixa de diálogo de “Loading...” era parte da vida de qualquer um que utilizasse computadores. Isso não mais procede: vivemos em uma sociedade que consome informações em tempo real, assiste a vídeos e ouve músicas em streaming em real time e exige que aplicações e softwares estejam à disposição para uso no segundo em que deles precisa. A mensagem de “aguarde” não é mais algo aceitável, e para evitá-la, o Big Data precisa ser processado e servido em velocidades cada vez maiores. O último eixo do modelo, contudo, talvez seja aquele que realmente marca o fim de uma Era da Informação, na qual computadores são meros auxiliares no armazenamento e processamento de informações, e passam a ser reais extensões do pensamento humano. O eixo da Variedade avança como nenhum dos demais. Todos os dias novas aplicações são desenvolvidas, dados diferentes e inovadores passam a integrar os bancos de dados virtuais espalhados pelo mundo e cérebro e máquina parecem ser partes indissociáveis de um mesmo exercício de raciocínio. Nos próximos anos, certamente veremos dados que sequer imaginávamos existirem sendo disponibilizados em velocidades surreais, do mesmo modo que hoje consumimos dados de orientação e geolocalização ou dados bancários e financeiros. Há, contudo, mais dois eixos que podem advir do estudo da evolução do Big Data. Os três eixos propostos em 2001 abordam o crescimento do Big Data segundo seus atributos técnicos, porém ignoram seu efeito mais característico nos dias de hoje: o impacto dessa tecnologia informacional para o ser humano e a sociedade. Sob tal óptica, é preciso entender como os três eixos propostos afetam a privacidade, provavelmente de maneira inversamente proporcional. Do mesmo modo, e provavelmente também de modo inversamente proporcional, o Big Data afeta os riscos aos quais o homem encontra-se hoje exposto.

Trata-se de uma conclusão simples e direta. Quanto mais avancem quaisquer dos três Vs, menores serão os riscos aos quais a humanidade encontra-se exposta – mas também será menor o atributo da privacidade. Para que computadores possam resolver nossos problemas, seremos obrigados a conviver, em tese, com uma privacidade cada vez menor. Alguns filmes abordam o dilema de maneira crucial, como ocorre com Minority Report, mas a verdade é que a literatura de ficção científica já trata de tais dilemas desde tempos muito anteriores à própria invenção da internet e do processamento de dados computadorizado.

O Dilema de Multivac Para os que não conhecem, Multivac é uma inteligência artificial fictícia imaginada pelo escritor Isaac Asimov. Presente em muitas das histórias e contos do autor, Multivac é um computador concebido dentro de um conceito muito similar ao que conhecemos hoje a partir do Big Data. Nas histórias, Multivac é uma inteligência que coleta de maneira incessante todos os possíveis dados a respeito de cada um dos membros da sociedade. Com informações sobre tudo e todos a todo momento, Multivac leva a humanidade até um ponto de evolução no qual não é praticamente necessário assumir qualquer risco – todos os problemas e preocupações são tratados e antecipados pela inteligência artificial, que cria maneiras de contorná-los antes mesmo que possam ocorrer [9]. Sem riscos, mas também sem privacidade, a humanidade torna-se vítima de seus próprios pensamentos, e transfere, de certo modo, seu próprio futuro às máquinas. Na visão crítica de Asimov, a inteligência artificial de Multivac evolui até o ponto de sentir-se cansada ou extenuada pelo universo de problemas com o qual precisa lidar, desejando sua própria extinção. Ou, em outro dos contos do autor, até o momento no qual a própria humanidade é apenas um consciente coletivo, que termina por fundir-se ao próprio consciente representado pela máquina, para assim dar origem a uma nova criação. Apesar de fictício e até romântico em alguns casos, o computador idealizado por Asimov abre os olhos da sociedade para realidades nas quais a privacidade é

algo inexistente, deixado de lado em favor da eliminação dos riscos aos quais estamos submetidos. Talvez haja um ponto no qual o desejo pela manutenção da privacidade possa impedir a humanidade de utilizar a informação para reduzir ainda mais sua exposição a riscos e incertezas. Entretanto, pode ser também que a inteligência artificial evolua até o ponto no qual a existência humana seja apenas algo previsível e calculado – uma conquista para a sociedade, mas provavelmente uma enorme perda para cada um dos indivíduos que a formarão.

A Era da Imaginação A ascensão das profissões ditas “criativas” começou ainda nos anos 1960 e 1970. Os primeiros passos para a valorização das ideias e conceitos sobre o objeto em si começaram, contudo, muito tempo antes. Poderíamos dissertar horas a respeito de como as vanguardas europeias, as tendências da arquitetura e do design e mesmo as artes visuais evoluíram durante o século XX, criando uma valoração crescente para a criatividade. Mas não se trata de arte, ao menos não necessariamente. Caminhamos para uma era na qual a informação é apenas o recurso necessário para que novas ideias e concepções sejam geradas – um resultado do poder de associação e criação da mente humana. A inteligência artificial, ao longo dos próximos anos, tomará grande parte das funções e rotinas que têm relação com a atividade intelectual, mas apresentam uma mecânica de coleta de dados, processamento repetitivo ou obediência a regras e protocolos. Efetuar cálculos, escrever memorandos, redigir notícias e relatórios... até que ponto realmente precisaremos da mão de obra e da mente humana para desempenhar tais tarefas?

A criatividade, as novas ideias e concepções e, razão deste livro, a mentalidade “smart” serão os verdadeiros motores da economia. Um novo olhar sobre problemas corriqueiros será não mais o início, mas talvez a entrega em um trabalho de consultoria. Selecionar cores e formas geométricas para uma nova loja talvez venha a ser um trabalho cujo valor poderá superar todo o restante da obra e projeto. Alguns estudiosos e também analistas de tendências já têm até mesmo um nome para essa nova era que começa a ser desenhada: a Era da Imaginação. A primeira menção a essa era ocorreu ainda em 1993, em um simpósio [10]. Charlie Magee discutiu, mais de 20 anos atrás, o primeiro grande indício de que nossa tentativa de “lidar” com a Era da Informação estava criando um ponto cego em nossa sociedade. A aceleração do processo de transição entre as eras da evolução da sociedade criava um novo ponto de ruptura, não para daqui cem ou duzentos anos, mas em 25 ou 30 anos. Bem, Magee se referiu a esse fato em 1993... o que nos deixa, no máximo, com 5 ou 6 anos até a próxima grande transição.

Informação, comunicação e civilização Para entender como uma nova era é desenhada e assume o controle da economia, da sociedade e mesmo da política, é preciso perceber como o conceito da comunicação está intimamente ligado à evolução humana. As passagens da sociedade para novos níveis tecnológicos, as ditas “eras”, sempre tiveram relação com a sofisticação das formas de comunicação entre seres humanos. A Revolução Neolítica, ou Revolução Agrícola, foi o evento que criou a possibilidade de fixação para a humanidade. Mais de 12 mil anos atrás, a Era Agrícola começava, mas apenas por volta de 7 ou 8 mil anos atrás é que surgiriam de fato as primeiras cidades e comunidades organizadas. Nada coincidentemente, na mesma época temos os primeiros exemplos de

evolução da comunicação gráficas das gravuras e desenhos para sistemas pictográficos que constituíam, indubitavelmente, traços de escrita. Os primeiros exemplos de peças com inscrições datam de 5.500 a.C. a 5.300 a.C., tanto na região da Grécia como na atual Romênia. A escrita possibilitou a comunicação através de gerações e permitiu que documentos, tratados e acordos pudessem ser formalizados – regras de convivência e vida em sociedade. A escrita deu origem a códigos de conduta e leis, milênios antes de Cristo, na Mesopotâmia e depois em todo o mundo. Direitos de propriedade, sucessão, contratos de casamento, compra e venda, governos e governantes – a escrita criou espaço para a organização e, consequentemente, para a aglomeração de tribos e aldeias em vilas, cidades, estados e, posteriormente, vastos impérios. Do mesmo modo, a descoberta da imprensa, o Renascimento e as Grandes Navegações deram posterior origem a novas e mais modernas formas de comunicação abriram caminho para a Revolução Industrial e as bases do Comércio Exterior como o conhecemos. O próprio capitalismo, e mesmo o comunismo, surgiram e proliferaram graças à comunicação escrita em massa, o advento do rádio e do telégrafo e, já no século XX, o cinema e a televisão. Com o avanço das técnicas de comunicação, a produção de bens ampliou-se e ganhou um mercado mundial e globalizado. Contudo, apenas uma coisa cresceu em ritmo mais acelerado do que a indústria ou mesmo a população mundial: a informação. A Era da Informação é uma consequência óbvia do amadurecimento da própria comunicação humana. Desde a Antiguidade, as manutenção e armazenamento da informação eram de suma importância para o próprio processo evolutivo de uma sociedade. Civilizações que obtiveram maior sucesso em registrar e propagar suas informações, como egípcios, gregos e romanos, influenciaram toda a sociedade ocidental que se seguiria à sua própria era. Exemplos como o Renascimento Europeu demonstraram claramente como nossa própria cultura contemporânea dependeu de forma crucial da eficiência com que gregos e romanos armazenaram a informação.

Com o advento dos computadores e, em seguida, da internet, a informação tornou-se algo a ser usufruído não por gerações vindouras – mas pela própria geração que a produzia. E, se a informação é um instrumento essencial para a própria evolução e para o avanço da sociedade, novos saltos evolutivos passaram a ocorrer num espaço menor do que o de uma única geração. Quando consideramos as “sub-eras” de evolução humana ocorridas apenas durante a vida de nossos avós, nascidos após a Segunda Guerra Mundial, essa lógica torna-se evidente: A Era Espacial; A Era Atômica; A Era da Aviação; A Era dos Computadores; A Era da Internet.

A tecnologia e a inovação tornaram-se consequências diretas do próprio volume e qualidade da informação. Essa relação criou valor: marcas, patentes, invenções e mesmo ideias passaram a movimentar a economia – contudo, com a recente propagação da inteligência artificial e do machine learning, até mesmo tal informação torna-se, cada vez mais, um bem commodity.

O fim da valoração quantitativa A chegada da Era da Informação criou um processo natural de commoditização junto a bens industriais. Produtos antes tidos como diferenciais ou luxos tornaram-se padrões – especificações e funcionalidades cederam lugar ao design, ao estilo e à customização como itens de criação de valor. Entretanto, o processo de commoditização não parou no universo dos produtos físicos. Serviços e mesmo produtos digitais tornaramse itens cujos preços e valores imediatos são praticamente constantes

ou padronizados – design, comodidade e criatividade passaram a ser os atributos capazes de criar valor ou mesmo adicioná-lo. Um celular pode custar apenas um único dólar em alguns lugares do mundo. Contudo, nesses mesmos lugares, encontramos celulares que custam milhares de dólares. Suas funções são as mesmas, seu tamanho, às vezes até mesmo seu fabricante. A marca, o estilo, o valor intrínseco e imensurável – nesses atributos está o verdadeiro valor. A Era da Imaginação é o período, conforme seus postuladores, onde a informação perde seus atributos qualitativos originais, tornando-se mais uma commodity. A consequência particular desse processo, e agora nos referindo ao tema deste livro, é o novo paradigma da criação de valor – somente há valor quando nossa óptica é capaz de apreendê-lo. Emprestando o fenômeno mais básico da física quântica, tudo e nada possui imenso valor – sendo essa apenas uma questão de quem é o observador, e de quando e como o mesmo está observando. O conceito, economicamente falando, pode parecer etéreo demais. Contudo, se considerarmos alguns simples exemplos presentes na nossa sociedade atual, a ideia faz total sentido. O próprio conceito smart, sobre o qual falamos neste livro, tem a ver com a capacidade de observar determinada informação ou conceito sob a visão particular de determinado grupo. O fim da Era da Informação já teve início. Cada vez mais, a informação parece tornar-se algo que o inglês situa como sendo um “Commons”. Embora em seu conceito inicial um commons possa ser traduzido como algo comum a todos, a própria concepção que isso traz remete de forma imediata para algo gratuito. Isso não significa “sem valor”, mas sim um direito e um pressuposto. A internet criou um nível de democratização da informação nunca visto pelo homem. Pesados volumes encerrados em estantes de bibliotecas ou vendidos a preço de ouro em livrarias estão hoje à disposição de quem os quiser, de forma mais categorizada e acessível, e toda a informação neles contida hoje custam o mesmo para qualquer um: nada. Veículos de mídia em todo mundo parecem não ter compreendido até agora a modificação que precisam impor em seus negócios – a

informação não perdeu seu valor cultural ou social, porém não exerce mais um valor monetário. As ruas e estradas são assim, bem como praias e parques públicos, ou mesmo obras literárias que já atingiram o prazo de domínio público ou teorias matemáticas de grandes cientistas e teóricos que um dia viveram. Não pagamos royalties a cada vez que utilizamos fórmulas matemáticas ou pagamos direitos a cada vez que encenamos uma obra de Shakespeare. O caminho natural da informação tornou-se a democratização. Décadas atrás, esse caminho era percorrido ao longo de décadas ou mesmo séculos. Com um maior volume de informação sendo produzido a cada dia, esse período de democratização passou a correr em anos, meses, dias e, mais recentemente, horas, minutos e segundos. O valor econômico percebido deixará de existir no contexto da informação meramente produzida ou angariada. É sua interpretação, uso ou extrapolação que passará a assumir valor. Aquilo que decidimos fazer ou não com determinadas informações é o que hoje cria valor monetário e financeiro – e até mesmo social. Redesenhar o futuro é um modo de pensar o uso da informação. Como podemos utilizar dados e informações de modo a criar valor e resolver problemas? No contexto smart, “saber” não mais funciona como um verbo intransitivo ou mesmo transitivo direto. Simplesmente saber ou saber algo não implica na criação de novos valores, mas quando inserimos uma causa à equação, imediatamente criamos novos valor para informação. A Era da Imaginação é uma era de perguntas, onde saber algo somente faz sentido quando o sabemos PARA determinado fim, ou DE algum modo.

Informação e imaginação A Era da Imaginação é, de certo modo, a associação do pensamento smart com a produção brutal de informação sob os padrões atuais do Big Data e mecanismos de inteligência artificial.

Vivemos em uma época na qual, sem exageros, a informação está sempre à disposição – toda ela. Nossos atuais meios de comunicação possibilitaram que a informação estivesse disponível para todos, em qualquer lugar e a todo momento – um recurso quantitativo. A forma com que olhamos para essas informações, no entanto, é o gatilho para a criação de valor e também de novos empreendimentos. Pensar no futuro não é mais o retrato de um inventor enfiado em uma garagem, fazendo planos que somente ele é capaz de compreender. Pensar no futuro é olhar de forma diferente para toda a informação de que dispomos – e associar o conhecimento adquirido através delas aos problemas e dilemas que vivemos em nosso cotidiano. E, a partir dessa visão particular da informação, criar valor e benefícios – não apenas em escala individual, mas social. Segundo os preconizadores da Era da Imaginação, a capacidade humana de imaginar e criar modelos mentais a partir da informação é o novo motor da própria economia. Quando pensamos nas funcionalidades e no próprio modelo de negócios das empresas mais bem-sucedidas do mundo atual, o conceito torna-se ainda mais claro: Google – busca de informações e páginas na internet, com monetização por meio da priorização de anúncios a partir da busca de palavras-chave. Facebook – rede de relacionamento e postagem de conteúdo de usuários, com monetização também a partir de anúncios exibidos conforme características do perfil de cada usuário. Dropbox – armazenamento de arquivos e documentos de forma remota. Monetização a partir do “aluguel” de espaço maior de armazenamento.

Esses poucos exemplos deixam claro o como o serviço ou o produto em si não é o foco do valor que é remunerado no modelo de negócios. Se pensarmos em funcionalidades, a busca do Google é tão gratuita quanto a criação de perfis no Facebook. Em relação ao Dropbox, desde o plano mais simples até o mais avançado, as características do serviço são praticamente idênticas e não adicionam

custo ao produto em si. O software ou app que realiza a sincronização de arquivos é gratuito, assim como a maioria das ferramentas de edição e manipulação de arquivos on-line. O valor intrínseco está na inteligência que tais empresas imprimem à forma com que oferecem e mantêm esses serviços. O Google oferece um público que compreende praticamente todo o mundo, por isso pode cobrar por anúncios em sua plataforma. O mesmo ocorre com o Facebook – 99% das novas ferramentas e funcionalidades não possuem custo, apenas pretendem manter o público usuário interessado e ativo, para que anúncios possam ser vendidos. Finalmente, o Dropbox oferece uma série de comodidades extras em relação a um pendrive ou HD externo, porém apenas cobra seus serviços com base no “tamanho” do espaço que é contratado.

A inteligência artificial Os avanços da inteligência artificial nos últimos dez anos nos levaram de robôs e computadores capazes de diálogos simples a máquinas que podem processar bilhões de dados por segundo, retornando respostas que emulam a inteligência humana e a capacidade de articulação em muitos aspectos. Entretanto, a verdadeira inteligência artificial não foi, ao contrário do que pensam muitos, concebida para “copiar” o cérebro humano. O objetivo da inteligência artificial, grosso modo, é a capacidade de criar uma forma de pensar coletivamente – um quase “consciente coletivo”. Ao realizar uma tarefa humanamente impossível – a de coletar dados de todos os seres humanos de forma simultânea – a inteligência artificial, mesmo com sua capacidade comparativamente rudimentar de abstração, pode criar conclusões estarrecedoras. Imagine se, por exemplo, ao entrar em uma loja de computadores, você pudesse, em questão de segundos, revisar mentalmente todas as informações e comparações existentes a

respeito de todos os modelos de laptops atualmente fabricados. O resultado seria de um custo-benefício sem igual. Infelizmente, para nós, é impossível acessar tal quantidade de informação de maneira rápida. Embora pudéssemos melhorar nossas decisões se tivéssemos tempo de avaliar e comparar um número dantesco de opções, nossa capacidade de assimilação, memória e mesmo localização no tempo-espaço não nos permitem usufruir de toda a informação disponível. A inteligência artificial pode fazê-lo. Para os apocalípticos e crentes nos dilemas da “Skynet” (inteligência artificial dominante de O Exterminador do Futuro) há um alento: a verdade é que, em termos de abstrações e avaliações subjetivas, os computadores ainda estão muito aquém do cérebro humano. Sua vantagem, contudo, está na velocidade brutal de análise de fatores e variáveis simples, e no uso de algoritmos e soluções matemáticas para criar modelos e cenários a partir dos bilhões de dados assimilados e processados. Já discutimos neste livro o conceito de “emergência”. Pequenas decisões e variações em escala individualizada que refletem em inteligência percebida quando em número incontável. Computadores funcionam baseados em um código binário – “sim” ou “não”. No universo do Big Data, a matéria-prima base da inteligência artificial que conhecemos hoje, a grande maioria dos dados angariados e coletados para criar modelos e previsões são de imensa simplicidade: objetos ligados ou desligados, pessoas que estão conectadas ou desconectadas e por aí vai. Contudo, esses mesmos dados simples, quando colocados aos milhões, podem indicar projeções a respeito do consumo de energia conforme horários e épocas do ano, períodos mais adequados para oferecer ou vender produtos, regiões nas quais a banda de internet pode tornar-se escassa ou abundante. A inteligência artificial traça essas projeções e, com base em bancos de conhecimento existentes, pode apontar soluções e sugestões para contornar problemas. Na prática, a inteligência artificial não substituirá, ao menos por um bom tempo, a capacidade humana de abstração. Muito pelo contrário: uma vez que não tenhamos mais de nos preocupar com a coleta e organização da informação para que tomemos decisões,

poderemos usar nossa abstração e inteligência emocional para criar soluções melhores, de forma mais rápida e também mais humana.

A revolução das APIs O futuro tem a ver com informação e imaginação e tudo isso, por sua vez, tem a ver com dados. A internet evoluiu para um sistema no qual dados e informações são coletados e requisitados ao mesmo tempo. Para lidar com requisições de inserção e solicitação ao mesmo tempo, criou-se uma ferramenta que revolucionou o modo com que nossa própria interação com a internet ocorre: a API de dados. O termo API vem do inglês Application Programming Interface, ou uma interface para programação de aplicações, e é um conjunto de rotinas e padrões estabelecidos por um software para a utilização das suas funcionalidades por aplicativos que não pretendem envolver-se em detalhes da implementação do software, mas apenas usar seus serviços. Qual a utilidade disso? Em suma, significa que para criar um aplicativo, um serviço on-line ou mesmo montar um website com consulta e gravação de dados e informações não é preciso desenvolver um banco de dados ou mesmo sistema do zero – basta efetuar trocas de dados com uma API já existente. As API tornaram o desenvolvimento de novas aplicações algo possível, em alguns casos, em questão de horas. Recentemente, grandes empresas e até mesmo governos passaram a dispor de dados em forma de APIs, o que permite que o próprio público desenvolva, com facilidade, aplicativos e ferramentas que tornam os serviços existentes melhores. Embora à primeira vista isso pareça apenas uma boa notícia para quem de fato vive de programação, a verdade é que a maior parte dos serviços e utilidades que temos hoje em nossa vida (e carregamos em nossos bolsos, no celular) somente são rápidos, eficientes e baratos

pois utilizam APIs para transitar informações. Elas estão em todos os lugares: A API dos Correios permite que você compre algo numa loja on-line e pague pelo frete, recebendo produtos em casa. A API do Uber permite que você localize motoristas mais próximos, chame-os e pague depois pela corrida. As várias APIs do LinkedIn permitem que você receba apenas vagas de emprego que estejam de acordo com seu perfil, ao mesmo tempo que permite que empresas apenas encaminhemnas para profissionais que preencham determinados requisitos.

Todas as redes sociais possuem diversas APIs, a maioria delas livres e mesmo gratuitas. A partir dessas APIs, milhares de usuários e empresas são capazes de criar aplicações específicas, tratar e processar dados ali encontrados e até mesmo interagir com as redes sociais originais, criando postagens, publicando conteúdo e alterando perfis. As APIs são um aspecto importante da consolidação da Era da Informação. Antes da internet e, principalmente, antes da lógica das APIs e do Big Data, a informação corria geralmente em um sentido único: um emissor, geralmente detentor de certo monopólio sobre a informação como um todo, divulgava e recolhia informações de todos. As APIs tornaram a informação um objeto que corre em dois sentidos de maneira simultânea e, além disso, em todas as direções – todos podem se comunicar com todos e interagir com os dados de todos, sem que haja prejuízos para os demais. A lógica das APIs é um processor irreversível e fundamental na democratização não somente da comunicação e da informação, mas também dos serviços.

A revolução da análise preditiva

Prever o futuro é um ensejo da humanidade desde seus primórdios. A grande verdade é que, à parte de charlatanices mil, civilizações e culturas aprimoraram seus métodos de efetuar previsões e projeções ao longo de toda a história. Tenha sido chamado de pensamento filosófico ou simplesmente magia, a verdade é que muitas das práticas de análise futura possuíam, mesmo milênios atrás, um grau de confiabilidade surpreendente. Algumas culturas usavam vegetais e frutos para fazer previsões, outras entranhas de animais. “Magos” do passado avaliavam o voo dos pássaros, a vegetação, a terra e as águas... e embora tudo isso pareça um sortilégio para gente ignorante, o fato é que muitos dos místicos do passado tinham uma boa margem de acerto. A razão para seu sucesso era muito simples – a qualidade da informação. Sim, ventos e frentes frias podiam ser previstas com algum acerto com base no voo e nas migrações dos pássaros. Marés podiam ser previstas com uma leitura de padrões na alimentação dos peixes, daí as entranhas dos animais. Frutas e vegetais mostravam, em seu próprio desenvolvimento, características que refletiam o clima. Dentro dos sortilégios e adivinhações, o homem sempre teve como base algum tipo de informação para efetuar suas previsões. A Idade Contemporânea trouxe um olhar mais científico sobre o uso da informação para criar modelos e previsões, ainda que místicos ainda tenham sua dose de sucesso, assim como os charlatães. E, se a informação é a grande matéria-prima que permitiu que modelos se tornassem mais sofisticados, é natural que na Era da Informação esse processo tenha ganho destaque e acelerado seu desenvolvimento. E, assim como magos e feiticeiros da Antiguidade usavam seu conhecimento sobre padrões para efetuar suas previsões, o homem moderno lançou mão de sua ciência para interpretar de forma correta os padrões que a informação é capaz de mostrar. Contudo, um próximo passo foi dado. Com a velocidade e eficiência de nossos computadores atuais e o fluxo quase infinito a olhos humanos de informações e dados, pessoas não mais seriam capazes de lidar com essa busca por padrões de forma prática. Nosso

conhecimento em matemática e o poder de processamento dos computadores permitiu que desenvolvêssemos algoritmos capazes de detectar e categorizar esses padrões em volume monstruoso, produzindo tendências que, após análise e estudo, levam a previsões. A chamada “análise preditiva”, popular em nossos dias, é uma função matemática capaz de aprender e interpretar esse grande volume de dados, agrupando-os e criando respostas e apontando direções. O professor emérito Thomas H. Davenport, da Babson College, considera que a análise preditiva como a conhecemos já cumpre, ao todo, três períodos distintos de evolução [11]. O business intelligence, do qual ainda se fala hoje como algo inovador, constitui na realidade o primeiro estágio evolucionário da análise preditiva. No Analytics 1.0, Davenport considera que houve, pela primeira vez, o registro, agrupamento e análise de informações e dados sobre processos de produção, vendas, interações com clientes, fornecedores e outros aspectos do negócio como um todo. O ingresso dos computadores e sistemas da informação na vida das empresas foi, pois, algo crucial para o avanço desse primeiro estágio da análise preditiva. Contudo, foi também uma consequência da necessidade das empresas de interpretar esses dados.

O Jogo da Imitação Para os que consideram a análise preditiva algo recente, vale lembrarmos de uma época na qual os primeiros computadores sequer existiam. Considerase, em tecnologia da informação, o ENIAC como sendo o primeiro computador digital eletrônico, colocado em operação em 1946. O matemático Alan Turing – ponto central do filme O Jogo da Imitação – utiliza um sistema mecânico de operadores lógicos para decifrar mensagens criptografadas alemãs. Isso tudo durante a Segunda Guerra Mundial. Sem acesso a computadores e com um dilema em mãos, o matemático, especialista em códigos e criptografia, vê-se impossibilitado na decodificação das mensagens em tempo hábil. A máquina alemã Enigma, que criava a criptografia sobre as mensagens, alterava sua matriz de codificação todos os dias. Turing e sua equipe simplesmente não conseguiam, humanamente

falando, lidar com todas as variáveis necessárias durante tal período – ao final de 24 horas, todo seu trabalho era inutilizado. Um sistema eletromecânico criado pelo matemático permitiu que um volume de dados monstruoso fosse processado de forma veloz, e fatalmente mensagens acabaram decodificadas. A aplicação militar do aparato disfarça outras possibilidades, entre elas a análise preditiva. Grande parte dos modelos matemáticos e algoritmos hoje utilizados por computadores para prever resultados e efetuar projeções são, na verdade, até rudimentares sob a óptica da matemática avançada. Grandes físicos e matemáticos lidavam com informações e dados dessa natureza cem anos atrás. Contudo, o brutal volume de variáveis e possibilidades tornava, para a maioria deles, impossível o alcance de qualquer solução. O exemplo de Turing ilustra de forma perfeita a ciência da análise preditiva antes e depois da internet e do Big Data – dados que sempre puderam ser coletados simplesmente não podiam ser processados. O salto quantitativo da análise de dados atual, em relação ao que possuíamos 10 ou 15 anos atrás, é comparável ao salto dado por pioneiros como Turing e os desenvolvedores dos primeiros computadores do mundo, como a IBM e a Universidade de Harvard, entre outros centros de conhecimento nos Estados Unidos e Europa.

O business intelligence não é uma novidade. Ao contrário, se estudarmos a história da informatização no mercado empresarial, certamente compreenderemos que o uso de informações e dados de forma cada vez mais frequente na tomada de decisões foi o que impulsionou a utilização de sistemas tecnológicos em todas as áreas de negócio existentes. A busca incessante por produtividade gerou a necessidade de interpretação dos dados para efetuar projeções e, por sua vez, o próprio volume de dados a ser interpretado criou a necessidade do uso de computadores cada vez mais potentes e velozes. “As condições básicas do Analytics 1.0 predominaram por meio século”, lembra Davenport. Mercados como o de derivativos financeiros, que despontou no começo da década de 1980, somente ganharam tração à medida que a análise preditiva se tornou essencial.

A análise preditiva seguiria nesses moldes até meados dos anos 2000. O Big Data, embora ainda não tivesse esse nome cunhado, surgia como resultado de padrões completamente novos de utilização e acesso na web. O Analytics 2.0 não apenas deveria gerir um volume “maior” de dados – esses dados também eram de natureza completamente diferente. No business intelligence, empresas basicamente olhavam dentro de seus próprios processos e, quando muito, para relações deles com atores externos que interagiam com sua produção e comercialização. O Big Data abriu para essas empresas um universo de dados externo, informações completamente fora do escopo dos processos de uma empresa que poderiam influenciar, ainda que de maneira pontual, a forma com que os negócios fluem. O pensamento smart começou a exercer uma importância maior sobre a análise preditiva. Agora, em um segundo estágio, simplesmente analisar dados não parecia o bastante: era preciso saber quais dados analisar e, com isso, aprender que informações poderiam se inter-relacionar, de modo a criar novos apontamentos e gerar tendências. Um modo de pensar diferente permitiu que especialistas da análise preditiva criassem novas interações de dados antes impensadas. Análises absurdas no Analytics 1.0 tornaram-se maneiras criativas e inovadoras de traçar previsões no Analytics 2.0 – associações inesperadas como a influência de hábitos alimentares no tempo de permanência de algumas pessoas em um emprego, ou como chuvas em uma cidade podem afetar o volume de vendas em outra cidade vizinha. Mas smart thinkers não parecem ter parado no mero uso de algoritmos e computadores e redes cada vez mais potentes para analisar e categorizar dados. O Analytics 3.0 já deu seus primeiros passos e os resultados da análise preditiva agora não mais parecem fazer parte apenas da estratégia empresarial em si – eles ajudam os próprios clientes a tomar decisões. O produto tornou-se algo imediatamente customizável e “enriquecido” com os próprios dados e previsões que a ele deram origem, para tornar-se mais atraente para os futuros usuários.

Mais do que alertar empresas em relação a previsões de consumo, demanda e oferta, a análise preditiva hoje aponta para a própria criação e previsão de necessidades – o foco, mais do que nunca, é o usuário. E a inteligência do usuário somada à inteligência da organização é capaz de criar produtos que antecipem necessidades e levem a uma utilidade que, sem a análise preditiva, sequer poderia ser concebida em tempo presente. Com essa nova mentalidade e uma forma diferente de encarar dados e informações, a análise preditiva está criando enorme impacto em áreas nas quais, em seus dois primeiros estágios de evolução, parecia não ter grande efeito: Efetuando previsões de demanda; Criando melhores estratégias de pricing; Antecipando necessidades de manutenção ou substituição; Abrindo espaço para aplicações de produtos não imaginadas pelos próprios criadores; Provendo possibilidades de substituição ou alteração de fornecedores; Identificando talentos e profissionais antes mesmo que esses estejam no mercado.

O FUTURO DA PERCEPÇÃO O que é o mundo? Essa pergunta um tanto existencial admite respostas completamente diferentes quando estudamos o contexto histórico. O mundo no pós-guerra, por exemplo, gerava uma percepção completamente diferente nas pessoas e na sociedade. A própria ciência e tecnologia eram motivadas e impulsionadas pela corrida bélica que despontou com a Guerra Fria. Mesmo para países fora do eixo EUA-URSS, avanços ocorriam mais rapidamente no contexto militar do que em qualquer outra direção. A informação era um bem estratégico, para poucos e raramente aberta ao público. Exércitos e lideranças conviviam com uma rotina tecnologicamente anos-luz à frente do restante da sociedade. Nas décadas de 1980 e 1990, inovações retidas por décadas nas mãos de órgãos governamentais passaram a ganhar espaço entre o público em geral. Computadores, antes enormes máquinas que processavam dados sem fim em salas reservadas e agências governamentais, chegaram às residências das pessoas. A internet, já em desenvolvimento havia 20 anos, tornou-se algo aberto. Em meados da década de 1990, qualquer um que pudesse pagar pelo uso incessante da linha telefônica e um provedor podia navegar em sites e páginas, ainda num estágio bastante retrógrado, mas já ativas. Quase 30 anos se passaram desde que a internet chegou de fato à sociedade. Hoje, inevitavelmente, vivemos metade de nossas vidas on-line. Poderíamos dizer que o mundo em que de fato vivemos dobrou de tamanho, mas a verdade é que, do lado virtual, em tese não há limites. A forma com que vemos o mundo, aos poucos confundiu-se: a tecnologia hoje nos permite falar com pessoas do outro lado do globo em tempo real, visitar monumentos e museus à distância, estudar sem que nunca vejamos professores à nossa frente e até mesmo criar vidas e personas de maneira virtual – pessoas e personalidades que apenas existem dentro de imensos bancos de dados e que são totalmente diferentes de nós mesmos.

A verdade, para alguns fascinante e para muitos outros aterradora, é que a internet e as tecnologias que correm lado a lado a ela modificaram nossa própria noção de realidade. A fantasia de filmes como Matrix, O 13º Andar e A Origem não parece mais assim tão distante.

A realidade aumentada O nome remete a elaborados filmes de ficção científica dos anos 1980. A realidade aumentada é um conceito complexo de definir. Em primeiro lugar, é preciso dissociar o conceito da realidade virtual, um resquício dos primeiros experimentos da ciência no campo da percepção humana do ambiente virtual. O pioneiro na definição e estudo da realidade aumentada foi Ronald Azuma, ainda no ano de 1997. Para ele, em seus estudos, a realidade aumentada podia ser caracterizada através de três critérios distintos [12]: 1. Primeiramente, enquanto a realidade virtual permite que o usuário esteja completamente imerso em um ambiente virtual e paralelo, a realidade aumentada na verdade é complementar – ela coexiste com a realidade que já conhecemos. Objetos reais e virtuais são parte do mesmo ambiente e cenário. 2. Em segundo lugar, a realidade aumentada permite a interação em tempo real. Tal qual a realidade propriamente dita, a realidade aumentada reage e provoca reações no usuário, que são cronologicamente compatíveis com a própria realidade original. 3. Em terceiro lugar, a realidade aumentada, assim como a que conhecemos, opera em três dimensões – ainda que muitos a possam considerar uma dimensão concorrente à realidade em que vivemos.

Mas quais são as verdadeiras implicações da realidade aumentada, e como ela, e suas possíveis evoluções, afetam o futuro da percepção humana? A realidade aumentada vem sendo utilizada em campos mais genéricos, adicionando features à realidade que conhecemos. Orientações e apontamos em visores e mesmo óculos, que permitam ao usuário detectar indícios e apreender informações sem que, em qualquer momento, tenha de desviar sua atenção da realidade original. Outras aplicações vêm criando ambientes com múltiplas funções adicionais à própria realidade. Softwares e sistemas de realidade aumentada para treinamento de médicos e cirurgiões, por exemplo.

Realidade aumentada e percepção A realidade aumentada e sua interação com o mundo real oferecem uma possibilidade nova – a criação de “camadas de interface” sobre a realidade. Entretanto, uma prerrogativa essencial é exigida da realidade aumentada nesse caso – que as interfaces sejam naturais para o usuário. Isso significa que, mais do que criar camadas de inteligência e interação sobre o universo físico, é preciso compreender a forma com que o ser humano percebe a realidade [13]. Uma interface natural para o homem implica na compreensão de dois conceitos fundamentais: 1. A percepção. 2. A sensação.

Embora o universo físico seja apreendido por nós pelos órgãos do sentido, a forma com que cada um de nós percebe essas informações é única – trata-se da interpretação de uma mesma realidade, contudo resultados podem se mostram completamente diferentes. E, da mesma forma que, por exemplo, daltônicos percebem uma mesma

cor de forma completamente diferente na realidade, perceberão de maneira única tais cores também nas camadas de realidade aumentada (e mesmo realidade virtual, como veremos mais adiante). O futuro da percepção representa, na verdade, ao menos no caso da realidade aumentada, uma forma de criar camadas que possam, dentro de percepções da realidade original tão distintas para cada um de nós, criar interpretações e interfaces que sejam comuns e adaptáveis. Em outras palavras, a realidade aumentada pode não apenas oferecer recursos para a exibição de informações e publicidade no mundo que vivemos (como no filme Minority Report), mas principalmente criar interfaces que permitam a todos perceberem determinadas partes da realidade de uma mesma maneira. Cegos que poderão “enxergar” o mundo como o vemos. Traduções em tempo real de toda a informação escrita na realidade, de e para qualquer idioma. As possibilidades são inúmeras e, embora o uso da realidade aumentada oferecendo novas camadas a partir da visão seja a aplicação mais óbvias, o emprego de outros órgãos do sentido, como o tato ou a audição, são já possíveis e viáveis. Por questões tecnológicas, a realidade aumentada é um processo que une hoje um hardware ou equipamento a um software que fornece as camadas que se superpõem à realidade que conhecemos. Isso implica em um uso ainda intrusivo em alguns casos – óculos 3D e de realidade aumentada podem ser incômodos, o que ainda é um obstáculo para muitos. Em alguns casos, no entanto, o próprio cotidiano fornece plataformas já adequadas à implementação “smart” da realidade aumentada – como a direção. A startup DigiLens, por exemplo, desenvolveu um sistema de realidade aumentada que oferece uma projeção que é feita no parabrisas de um automóvel. As imagens projetadas no para-brisas se superpõem às próprias ruas e avenidas, além do cenário urbano, oferecendo uma espécie de “Google Maps real”. O sistema aplica simbologias e orientações 2D no cenário real em 3D, guiando motoristas enquanto eles dirigem, eliminando distrações e inconsistências existentes em sistemas de GPS convencionais.

A percepção da realidade tradicional, nesse caso, não é afetada em absoluto – ela é apenas majorada pelas referências aplicadas pela nova tecnologia. Nos próximos anos, a mentalidade “smart” será responsável por gerar novas aplicações que, da mesma forma que o sistema AutoHUD, da DigiLens, possam expandir a percepção humana da realidade, sem prejuízos ao modo com que cada já apreende as informações do ambiente.

O próximo passo da disparidade binocular A realidade aumentada, para muitas pessoas, ainda cria certa perplexidade. De certa maneira parece que já há informações demais a serem apreendidas no meio ambiente, sem que haja a inserção de novos dados mediante o uso de tecnologia. Entretanto, é preciso lembrar que, biologicamente falando, nossa visão em três dimensões nada mais é do que a captação de imagens bidimensionais a partir de dois pontos focais distintos. A formulação dos conceitos de profundidade é criada por meio da superposição de imagens em nosso cérebro – é o fenômeno da chamada disparidade binocular. Com a realidade aumentadas, um novo espaço em 3D é superposto sobre o espaço em 3D já existente. Ainda estamos nos primórdios de tal tecnologia, mas a verdade é que nossos cérebros provavelmente aprenderão a superpor imagens e cenários reais e aumentados, criando imagens únicas – uma espécie de “quarta” dimensão, ilustrada pelo significado. Tal como é capaz de criar a ilusão de profundidade a partir de dois pontos focais, representados pelos nossos dois olhos, que enxergam uma mesma imagem de maneira ligeiramente diferente, o mesmo poderá ocorrer com imagens reais e seus complementos em realidade aumentada – o resultado será uma percepção única e produto de uma “ilusão” gerada por nossos processos neurológicos. Perceber o mundo terá um significado completamente diverso, a partir desse momento.

Informação, comunicação e imaginação A realidade aumentada vem sendo, por ora, utilizada por empresas e startups para criar camadas de informação e, quando muito, comunicação. A partir de imagens reais, informações são superpostas, de modo a auxiliar pessoas a identificarem aspectos do ambiente, receber informações em tempo real, ampliar o campo de visão e percepção e criar maior inteligência em movimento. Contudo, para onde vamos quando a realidade aumentada adiciona camadas de “imaginação” à percepção humana. Não estamos discutindo as holografias “futurísticas” dos anos 1980 ou apenas jogos eletrônicos projetados para visores e óculos de realidade virtual. A imaginação em combinação com a realidade aumentada pode ter um impacto decisivo na sociedade, a depender do modo com que venha a ser utilizada. Poucos parecem pensar a respeito, mas a personalização e a customização, em conjunção com a realidade aumentada, podem tornar os seres humanos donos, cada um deles, de visões completamente diferentes da realidade. Ao mesmo tempo em que isso representa uma expansão das possibilidades e do próprio conceito de individualidade, pode levar a um distanciamento natural da percepção física da realidade. Passaríamos a enxergar o mundo de forma tão particular que, em determinado momento, nossas “versões” individuais não teriam mais qualquer relação com as versões “oficiais” do mundo e do ambiente. E, enquanto que na realidade virtual essa possibilidade significa, sem dúvida, um avanço, na realidade aumentada isso pode nos levar à condição de prisioneiros de nossa própria imaginação.

A realidade virtual Ainda há muitas pessoas (e mesmo empresas e formadores de opinião) a confundir realidade virtual com realidade aumentada.

Embora, tecnologicamente falando, essas inovações possuam diversos pontos em comum, quando falamos em percepção humana elas não poderiam ser mais diferentes. De forma breve, a realidade virtual é um cenário gerado por meio digital que simula uma experiência realista. Quando falamos em realidade virtual, é preciso ter em mente que a pessoa precisa ingressar nesse cenário por imersão, com o uso de hardwares de apoio que possibilitem tal conexão. A tecnologia em voga nos dias de hoje explora mais a visão como interface para imersão do usuário na realidade virtual, embora o sentido do tato seja relevante, em termos de toque e movimentos. Experimentos e simulações em pequena escala hoje testam a produção de cenários virtuais que apelem aos demais órgãos do sentido, mas tal nível de interatividade ainda não chegou ao grande público. Ainda assim, não é difícil imaginar que em não muito tempo novos sistemas de imersão, tanto em termos de hardware quanto de software, irão tornar a experiência da realidade virtual algo cada vez mais completo e, aqui o grande destaque em relação à realidade aumentada, cada vez mais desconexo da realidade de fato. Vemos isso como apelo e premissa em diversos sucessos do cinema e filmes, tais como Matrix, O 13º Andar, Tron e tantos outros. Nesses filmes, todo o drama e história giram em torno de um roteiro que ocorre entre dois mundos – um sendo o nosso e outro aquele produzido por computadores.

Matrix mais completo Embora a trilogia de Matrix seja, até hoje, a mais comum e falada referência às possibilidades da realidade virtual, há de fato um exemplo ainda mais completo e sofisticado de como (e por que) a realidade virtual poderia tornar-se, num dia não muito distante, uma segunda forma de vida para todo e qualquer ser humano que possa estar disposto a viver tal experiência. Trata-se do anime Sword Art Online, sendo o título do anime o título do próprio jogo no qual, ao longo da série, os personagens se conectam a partir de

interfaces simples, mas sofisticadas, que lembram muito os óculos VR já existentes atualmente. Na trama do anime, adolescentes e adultos em um futuro não tão distante utilizam um hardware similar aos óculos VR para ingressar em um jogo estilo RPG medieval, onde assumem um avatar e são capazes de interagir em nível praticamente real em um mundo no qual apenas a dor e a morte não são sensações perceptíveis. Na complicação do enredo, os jogadores são chamados para um torneio, porém se veem presos ao cenário virtual indefinidamente, e a morte no jogo passa a significar, desse ponto em diante, a morte também no mundo real. Sword Art Online representa uma alternativa mais plausível ao futuro da realidade virtual por um simples aspecto: nesse avanço da tecnologia, a principal aplicação é o entretenimento, o que coincide de maneira esplêndida com o modo com que a realidade virtual vem sendo até agora utilizada de maneira mais agressiva.

Realidade virtual e educação O campo educacional pode e deve, ao longo dos próximos anos, ganhar muita dinâmica com o uso dos próximos avanços da realidade virtual. Já usada em uma série de ambientes onde são necessárias simulações — que vão desde aplicações militares até dispositivos de simulação de cirurgias, para estudantes de medicina — a realidade virtual pode migrar para a sala de aula de maneira mais cotidiana. De fato, correntes pedagógicas em crescente aplicação possuem premissas que, em muitos aspectos, coincidem com o que se pode imaginar como um ensino norteado pelo uso da realidade virtual, como é o caso do construtivismo [14]. Jonassen observa que seis princípios utilizados em ambientes educacionais pautados pelo construtivismo podem ser altamente relevantes para o desenvolvimento de aplicações de realidade virtual em pedagogia:

O proporcionamento de múltiplas versões da realidade, representando a complexidade do mundo; O foco na construção de conhecimento e não na reprodução; O uso de tarefas autênticas e realistas; A promoção de prática da reflexão; Facilitar a construção de conhecimento a partir de conteúdos e contextos; Promover a colaboração ao invés da competição por reconhecimento entre os educandos.

Realidade virtual e inovação Barreiras sempre se interpuseram aos avanços científicos. A comprovação empírica de teorias sempre teve como obstáculo a própria realização de experiências e eventos – muitos deles impossíveis de serem ensaiados com recursos e até ambientes físicos que a humanidade dispunha. A realidade virtual, em muitos aspectos, significa o rompimento dessa barreira. Em um ambiente cujos limites são a própria imaginação, é possível experimentar e ensaiar praticamente qualquer teoria. Enquanto a realidade virtual ainda caminha a passos discretos na sociedade, no campo da ciência já encontra milhares de aplicações, nas mais variadas áreas do conhecimento: Astronomia; Biologia; Física quântica; Química; Engenharia; Medicina.

Em cenários completamente impossíveis de serem acessados ou concebidos no mundo real, a ciência hoje comprova teorias de grandiosidade nunca vista. Teorizações sobre buracos negros e

estrelas de nêutrons, comportamentos peculiares de subpartículas atômicas, reações a tratamentos médicos e clínicos, máquinas monumentais cujo custo ainda é inviável, porém ensaios possíveis. Muitos diriam que cálculos matemáticos já provinham essa plataforma. Entretanto, a aridez desses cálculos estabeleceu, por séculos, inimagináveis teoremas – todos funcionavam perfeitamente em termos matemáticos, porém não possuíam um componente essencial para a compreensão e o avanço humano: a percepção. A realidade virtual não mais é apenas uma diversão para madrugadas de geeks, como ocorria com jogos da primeira geração da realidade virtual, como o Second Life. Agora, essas realidades fabricadas são capazes de acessar e interagir não apenas com a visão e a audição, mas inclusive com o tato, o olfato e o paladar. Em termos de ensaio, a realidade virtual hoje empregada em laboratórios pouco fica a dever para a própria realidade que conhecemos.

Realidade Questionável A natureza vívida da realidade virtual apenas torna, cada vez mais, a nossa própria noção de realidade algo questionável. Em filmes como O 13º Andar, a natureza da própria realidade como mero produto da percepção de seus espectadores – nós mesmos – é colocada em xeque. Saberíamos se estivéssemos vivendo em um simulacro? Teóricos hoje se questionam a respeito do quão cientes estaríamos se nossa própria realidade fosse apenas produto de computadores e simulações mais avançadas que nós mesmos. A cultura pop de filmes, animes e livros já apresenta essa questão como algo que faz parte de nossas vidas. Cinquenta anos atrás, poucos imaginavam estar dentro de uma simulação – mas agora que somos capazes de criar realidades virtuais que rivalizam com nosso próprio mundo, essa dúvida tornou-se algo tetricamente real. Trabalhos como o interessante paper do neozelandês Brian Whitworth [15] são capazes de fazer com que coloquemos à prova nossas próprias vidas. A análise da realidade virtual, sob essa óptica, é algo tão poderoso que no futuro poderá mudar os rumos da própria religião como a conhecemos – será que é a verdadeira realidade o que nos espera “do outro lado”?

Os primeiros indícios de uma realidade fabricada remetendo à nossa própria, segundo o autor, seria a estranha natureza da própria física, agora que ganhamos conhecimento na área: A capacidade da gravidade de deformar o tempo e curvar o espaço; A capacidade da própria velocidade deformar o tempo e elevar a massa; A natureza absoluta da velocidade da luz; O comportamento aleatório e com base no observador de partículas subatômicas; Velocidades maiores que a da luz; Comprovações científicas da teleportação.

Improvável, a teoria ao mesmo tempo torna-se irrefutável. E, segundo alguns físicos e cientistas, se há a probabilidade que haja apenas uma única realidade física, mas infinitos simulacros, as chances de vivermos em uma “Matrix” são infinitas vezes superiores às chances de sermos de fato reais. Segundo a visão de outros especialistas e teóricos do tema, como Nick Bostrom, os dilemas que apontam para a possibilidade de vivermos em um ambiente virtual são bastante reveladores e, para que a comprovação existe, basta imaginar que ainda que todos nós não estejamos cientes da natureza virtual de nossa realidade, ela seria comprovada se houvesse apenas um entre nós ciente desse fato.

A realidade mista Realidade virtual, realidade aumentada e a realidade “realidade”. Num mundo regido por computadores e pela imaginação, parece mais fácil imaginarmos cada uma dessas realidades como se fossem camadas. E, como ocorre com as camadas, elas podem sempre se sobrepor.

Sempre nos mostramos fascinados em relação a filmes e livros de ficção, que traziam aventuras em universos e planos paralelos. A realidade mista torna isso parte do cotidiano. Em um mesmo momento, vivemos a própria realidade, a realidade virtual e as camadas aumentadas de ambas – todas coexistindo e interagindo entre si. Paul Milgram e Fumio Kishino conceituraram ainda em 1994 [16] a realidade mista como sendo uma de coexistência entre a realidade de fato e sua realidade aumentada e a realidade virtual e sua “virtualidade aumentada”. A virtualidade aumentada é um conceito que, para muitos de nós, pode parecer um pouco impalpável. O raciocínio em si é bastante simples: do mesmo modo que a realidade possui uma camada de expansão que utiliza elementos da realidade virtual, a chamada realidade aumentada, imagina-se a virtualidade aumentada como sendo o “espelho” desse processo. Em outras palavras, seria a expansão da realidade virtual por meio do emprego de elementos da própria realidade [17]. A série Black Mirror, mais uma vez, oferece uma representação interessante daquilo que se poderia esperar de uma virtualidade aumentada – o emprego de elementos do mundo real como forma de expandir a experiência da realidade virtual. O episódio USS Callister é um bom exemplo disso, no qual um talentoso programador utiliza uma versão privada de jogo de realidade virtual. Os personagens que com ele interagem, contudo, são projeções dos seus próprios colegas de trabalho criadas a partir de amostras de DNA dos mesmos. A realidade mista está em sua aurora, contudo. Iremos descobrir nos próximos anos, certamente, que muitas das fronteiras hoje existentes e tidas como certas entre a realidade e a virtualidade são mais tênues do que imaginávamos – e o número de camadas daquilo que consideramos realidade tende a multiplicar-se de forma progressiva.

O FUTURO DOS PROCESSOS A produção de bens, fisicamente falando, parece ter atingido o estado de commodity. Entretanto, a verdade é que o entorno da atividade industrial cresceu de forma assustadora. Sim, hoje somos capazes de produzes microprocessadores e automóveis aos milhões, em fábricas controladas por algumas dezenas de pessoas. Entretanto, o pano de fundo dessa linha cada vez mais automatizada de produção abriga milhares de pessoas, tecnologias, serviços, inovações e até novos conceitos econômicos, ideológicos e mesmo filosóficos. A indústria sempre foi um resultado direto de grandes revoluções não apenas no campo científico, mas também social. Num eterno ciclo, a indústria inicia novas revoluções impulsionada por inovações e grandes acontecimentos e, posteriormente, termina por definir novos padrões econômicos, sociais e mesmo comportamentais. Para a grande maioria, estamos hoje em pleno desenvolvimento e consolidação do que escolhemos apelidar de Indústria 4.0 – ou a Quarta Revolução Industrial. Ao longo das três primeiras grandes revoluções da indústria, a produção mudou por influência de grandes inovações técnicas: Mecanismos hidráulicos e impulsionados a vapor, no final do século XVIII; A divisão do trabalho e os processos de produção em massa, no início do século XX; A introdução de mecanismos de controle baseados na informática e em computadores, nos anos 1970.

Falamos hoje em robôs, mas embora nossa concepção dessas máquinas esteja mais próxima daquilo que vemos em filmes de ficção, a verdade é que os robôs são parte integrante dos processos industriais na maioria dos setores econômicos há pelo menos 40 anos.

Sensores, comandos CNC, ferramentas automatizadas, comandos remotos, sincronização de cadeias de produção... tudo isso não é novidade. A Indústria 4.0 não representa a introdução de “robôs” na produção industrial – eles já estavam lá.

A Indústria 4.0 A Quarta Revolução Industrial tem início quando mecanismos e ferramentas de automação e controle nas indústrias começam a gerar e a funcionar com base em dados e informações. Algumas premissas dessa nova modalidade de produção relacionam esse quarto estágio de evolução da produção não apenas com computadores, ou mesmo com a internet, mas com a informação e as tecnologias de comunicação e operação na nuvem. Para engenheiros e inovadores, a Indústria 4.0 cria o que pode ser chamado de “smart factory”. A Internet das Coisas teve um papel fundamental no desenvolvimento e consolidação desses novos processos. E, embora os gadgets e sensores inteligentes sejam o aspecto mais chamativo desse novo estágio de produtividade no mundo, a verdade é que as características que definem a Quarta Revolução Industrial são muito mais abrangentes: Interoperabilidade. Todos os estágios, módulos, etapas, mecanismos, equipamentos e pessoas dentro de uma linha de produção podem comunicar-se em tempo real a qualquer momento. Transparência. Como toda a informação é disponibilizada 100% do tempo, há maior transparência dentro dos processos. Descentralização. Decisões tornam-se mais descentralizadas. Com informação de todas as partes e sistemas inteligentes e autônomos, cada módulo, equipamento ou mesmo peça dentro de uma linha de montagem pode “decidir” o melhor modo de cumprir tarefas. Customização. Com decisões descentralizadas e informação, as possibilidades de customização tornam-se virtualmente

infinitas. Métricas e projeções. O volume de dados e intercomunicações gera informação em volumes imensos, que pode ser tratada e processada para elaborar modelos, projeções e cenários de forma mais precisa do que jamais antes na indústria. Previsibilidade. O aumento do controle e do volume de dados reduz incidentes, imprevistos e erros no processo – a Indústria 4.0 é mais eficiente que os modelos antecessores, mesmo quando submetida a um menor de rigor de supervisão e fiscalização.

Contudo, a nova indústria ainda está em consolidação. Muitos já falam no conceito de Indústria 5.0 e, embora de fato ele seja algo previsível, há muito o que evoluir no estágio atual de desenvolvimento.

Uma transformação na cadeia de valor O uso da informação e dados, em conjunto com a Internet das Coisas e a inteligência artificial, está modificando por completo a cadeia de geração de valor dentro dos processos industriais. De um modo geral, a Indústria 4.0 é algo muito similar a uma residência nos dias de hoje. Temos três componentes essenciais dentro dessa cadeia de produção: 1. Componentes físicos, tais como peças e partes mecânicas e eletrônicas; 2. Componentes inteligentes, ou smart, onde incluem-se sensores, microprocessadores, sistemas de armazenamento de dados, sistemas operacionais embarcados e outros; 3. Componentes de conectividade, como portas lógicas, antenas, protocolos de transferência, produtos e sistemas na nuvem, conexões de dados e sistemas remotos.

Os componentes de conectividade, uma contribuição da Internet das Coisas aos processos produtivos, elevaram o alcance e acessibilidade dos componentes smart, já usados há décadas na indústria. Na prática, essa trilogia de elementos criou a possibilidade de controle em full-time, de qualquer parte do globo. A conjunção das capacidades de monitoramento e controle com o acesso remoto e o tratamento de dados característicos da Era da Informação levaram a novas oportunidades de otimização. Algoritmos agora são usados para melhorar a performance, a qualidade, os tempos de entrega e as próprias melhorias que são adicionadas a produtos. A entrada dos componentes de conectividade ainda permitiu maior autonomia das linhas de produção – elas podem ser ajustadas de forma coletiva ou individualizada, operar por conta própria e adaptarem-se a eventualidades sem a necessidade de mudanças na indústria de forma global. A produtividade, a qualidade, a logística e a adaptação ao mercado são hoje características da indústria que podem ser melhoradas de forma dinâmica. Antigos processos de implementação de normas, como a ISO 9000, hoje podem ser resumidos a uma simples atualização de determinado software. Regras de compliance podem ser obedecidas por meio da realização de benchmarks entre a programação de linhas de produção. A logística e a resposta ao próprio consumo, por outro lado, tornaram-se tão maleáveis e responsivas que hoje é possível falar em aprimoramento de produtos antes mesmo que a primeira unidade deixe uma linha de produção. Antes da Indústria 4.0, dados eram gerados principalmente a partir de operações internas e transações realizadas dentro da cadeia de valor de um produto. O processamento de pedidos, interações com fornecedores, vendas e entregas, visitas a clientes e outros detalhes. Esses dados eram complementados por meio de pesquisas, estudos de mercado, entrevistas e outros métodos de coleta de dados.

Combinando todas essas informações, empresas podiam saber mais a respeito de seus clientes, custos, fornecedores e demanda, mas a verdade é que terminavam sem saber muito a respeito do próprio uso e funcionamento de seus produtos. Contudo, com a Indústria 4.0, toda essa rebuscada procura por dados pode ser, de certo modo, enclausurada no próprio produto. Como o produto é algo inteligente e conectado, pode gerar informações em tempo real que criam dados e levam a conclusões dentro de toda cadeia de valor. É possível, pela primeira vez, entender de maneira clara como clientes utilizam o produto após a compra, quanto o utilizam e que valor passam a dar para ele muito depois do episódio da compra em si. Com essas novas informações e as antigas em mãos, indústrias podem criar modificações, melhorias e customizações que não apenas sejam mais velozes, mas também possam atender a clientes finais em um nível quase individualizado, sem com isso comprometer a produtividade e o volume. As transformações da cadeia de valor com essa nova variável são brutais. Isso porque o produto em si, como fonte de geração de dados, é capaz de criar um volume de informação maior do que toda a informação que era usada até então. As mudanças requeridas no processo produtivo, a partir da entrada de produtos inteligentes no mercado, começam no próprio processo de desenvolvimento de produtos. O design de produtos hoje mudou muito de seus princípios fundamentais: Variedade e customização de baixo custo. A variabilidade da oferta nos produtos, até pouco tempo atrás, era necessariamente um fator de encarecimento do processo de produção. Hoje, com clientes e fornecedores conectados em uma rede de informação em tempo real, a variabilidade pode ser inclusive um fator de redução de custos. Isso não atinge apenas a produção de celulares e gadgets. A John Deere, de tratores, por exemplo, usa informações produzidas por seus próprios veículos para oferecer uma linha com diferentes níveis de potência. Novos tratores que saem da fábrica têm seus motores ajustados em termos de potência e torque, com

base no uso dado aos tratores que já estão em circulação no mercado. O versioning em produtos físicos tornou-se algo similar ao que víamos apenas em softwares. Além do número de versões e atualizações evoluir de forma praticamente diária, produtos inteligentes passaram a permitir que tais atualizações também fossem implementadas nos produtos que já estão em uso pelo cliente. É um caminho de duas vias – o uso, por parte dos clientes, indica o que deve ser melhorado, e essa melhoria ocorre em nível de produção, mas também para o próprio cliente que levou ao insight responsável pela alteração. Produtos inteligentes permitiram também uma gestão dinâmica da qualidade. Testes não mais são um processo exclusivo de laboratórios – eles são realizados diariamente pelos próprios usuários do produto, em condições reais e não apenas reproduzidas. Pós-vendas e serviços conectados. Uma vez que o produto pode coletar dados, também pode fornecê-los. Assim sendo, produtos são criados já com atributos que permitem a empresas oferecer novos serviços e gerar atendimentos a partir deles mesmos. Além de monitorar a performance e efetuar modificações que beneficiam o cliente, esses produtos geram dados que podem antecipar problemas e reclamações – transformando o processo de pós-vendas e suporte em algo ativo, e não mais passivo apenas. Novos modelos de negócios se tornam possíveis a partir de produtos que já estão no mercado, uma vez que é possível, por meio de inteligência embarcada, implementar mudanças não apenas nos novos produtos, mas também naqueles que já passaram pela cadeia de valor.

A Indústria 5.0

Se a Indústria 4.0 é uma cadeia industrial com base na Internet das Coisas, ou seja, na inteligência desenvolvida pela própria interconexão entre o produto e seus processos produtivos, a Indústria 5.0 marca a volta do ser humano ao ambiente industrial. A nova revolução industrial, já em curso, é marcada pela interação entre o homem e a máquina em um nível jamais visto. Dentro de um conceito que já vimos ao longo deste livro, a Indústria 4.0 é o resultado máximo, em escala produtiva, da Era da Informação. Contudo, na Era da Imaginação, o pensamento subjetivo e as decisões humanas, bem como a criatividade do homem, entram em conjunção com a inteligência de dados da máquina para criar produtos que, além de inteligentes, sejam capazes de reproduzir sonhos, aspirações, ambições e até mesmo delírios dos consumidores. Mais do que apenas decisões, as novas barreiras da produtividade apontam para um nível inter-relacional quase simbiótico entre a tecnologia e o ser humano. A biotecnologia expande o raio de ação da inteligência de dados para a componente humana do processo industrial. Para alguns, uma perspectiva até mesmo sombria – mas em termos empresariais, uma chance de levar a produtividade e a customização a um nível completamente novo.

Funcionários conectados Algumas experiências ainda em curso nos Estados Unidos têm gerado tanto curiosidade e empolgação, por parte de alguns, quanto controvérsia e críticas, por parte de outros. São exemplos como o da desenvolvedora de software Three Square Market, do Wisconsin, que convenceu 50 funcionários a voluntariar-se em uma nova modalidade de inteligência industrial. Os funcionários da empresa receberam chips microprocessadores em seus polegares, implantados de forma subcutânea. Com tais chips, funcionários podem acessar informações e dados em computadores e outras máquinas, liberar pagamentos e efetuar compras. Os dados armazenados são criptografados e rastreados por meio de GPS, com funcionalidades similares àquelas dos cartões de acesso de empresas, porém com um nível tecnológico maior. Em tese, tudo o que é hoje analisado

em nível de produção e produtos, por meio de tecnologia embarcada, também poderá ser analisado em termos da mão de obra humana. Outras empresas ao redor do globo vêm realizando experiências similares. A questão da privacidade ainda é uma barreira relevante a discutir nesse caso, porém todos os testes em curso envolvem o uso de funcionários voluntários nos experimentos.

Mas como reduzir a Indústria 5.0 a uma máxima que a diferencie da Indústria 4.0? Bem, a exemplo de todos os avanços da revolução industrial ao longo do século XX e começo do século XXI, a Indústria 4.0 é baseada no uso da alta tecnologia e informação, mas também para conseguir maiores e melhores índices de produtividade. A Indústria 5.0 é mais uma mudança de foco do que propriamente uma nova integração de inovações e tecnologias no conceito tradicional. Valoriza-se, a partir da Indústria 5.0, a criatividade, os padrões de vida e conforto e produtos de alta qualidade (ainda que isso implique em menor produção em alguns casos). A era da hipercustomização deu a partida para o avanço rumo à Indústria 5.0. O próprio mercado consumidor passou a demandar o “diferente” muito mais do que o “maior” ou o “mais vasto”. No conceito de sociedade em que vivemos hoje, os próprios atributos de poder sofreram uma modificação – o acúmulo não mais é um sinônimo de riqueza.

Princípios do design na Indústria 5.0 Por séculos o design industrial esteve completamente focado em dois pontos principais: o design para ampliar as vendas e o design para reduzir custos de produção e otimizar volumes. Sob a nova óptica, tudo isso torna-se um detalhe. Claro que as grandes corporações mundiais ainda primarão pela profusão de um design

focado em índices quantitativos – mas no plano do indivíduo, a demanda por bens “otimizados” do ponto de vista industrial será cada vez menor. Muitos discutem hoje a metodologia dos 6R no desenvolvimento de produtos e design industrial. Alguns conceitos de sustentabilidade aliam-se a uma visão inteligente do consumo, produzindo princípios que devem nortear a criação: Reconhecer; Reconsiderar; Realizar; Reduzir; Reutilizar; Reciclar.

O design estende-se à logística. Uma visão de eficiência é mantida – mas agregada à transparência e ao compartilhamento, não apenas do trabalho, mas também dos lucros. É fácil ver essa aplicação nos dias de hoje: consumidores que criam e interferem na própria idealização dos produtos, que em geral acabam produzidos apenas para aqueles que irão de fato consumir. Transparente em sua relação com o próprio consumidor, eficiente em termos de redução de desperdícios e produção justificada pela demanda e compartilhada em termos de lucros, uma vez que os próprios criadores do produto ou sua variante podem, muitas vezes assumir participações na própria venda do item. O design na Indústria 5.0 pode, nos próximos anos, alterar nossa própria compreensão de propriedade intelectual. Num mundo no qual todos criam e compartilham dos lucros de suas criações, qual seria a utilidade de uma patente? Já é possível vivenciar a liberdade intelectual no segmento de desenvolvimento e programação. Em comunidades de programadores, como o Github, milhões de códigos, programas, softwares e scripts são livremente utilizados e reutilizados para criar sistemas complexos – sendo que a única reserva intelectual recai sobre a citação dos autores e contribuidores. A regulamentação é tácita: desenvolvedores referenciam códigos e autores de scripts que

tenham usado em suas implementações, mesmo que não haja propriamente uma punição ou carga legal em caso de não citação ou desconformidade. A autoria é conjunta, sempre – e ganhos, mesmo sem uma formalidade nas relações, acabam distribuídos.

Impactos da Indústria 5.0 Esse novo conceito de produção e processos pode modificar completamente nossa óptica sobre dilemas enfrentados pela civilização desde antes da própria Revolução Industrial. Três vieses de impacto chamam a atenção, nesse caso: 1. O impacto econômico. Quando o desperdício é eliminado dos processos industriais, ganhos econômicos não se resumem apenas à recuperação do volume ou itens desperdiçados – estamos falando da desnecessidade dos pesados mecanismos de controle de desperdícios e falhas, que do dia para a noite simplesmente deixariam de existir, sem qualquer tipo de utilidade. 2. O impacto ambiental. Sem desperdícios, o volume de rejeitos e o próprio ritmo de exploração de recursos tende a cair. Com a utilização total de cada recurso empregado, alinha-se também a produção ao fornecimento de maneira igualitária – o que permite projeções e previsões com maior fidelidade. 3. O impacto social. O desperdício significa, necessariamente, produtos e serviços mais caros, de menor qualidade e, além disso, a desvalorização do trabalho do indivíduo. A eficiência torna o capital humano um bem mais valioso. Ao contrário do que sustentam os apocalípticos, a indústria mecanizada e informatizada não foi capaz de eliminar os desperdícios em seu todo. A Indústria 5.0 propõe diretamente uma espécie de simbiose entre a máquina e o indivíduo – enquanto um opera para maximizar volumes e produtividade, o outro torna o processo humano e direcionado à necessidade, impedindo

falhas, desperdícios e o emprego errôneo de recursos tecnológicos.

Mas nem tudo são flores. O sucesso da Indústria 5.0 depende de uma série de fatores e implica igualmente em uma imensidão de obstáculos e desafios, que terão de ser transpostos por muitos setores. Barreiras legais em diversos países impedem hoje a liberdade do indivíduo em relação à forma como decide fazer uso de seu capital laboral e intelectual. Criadas em tempos de necessidade regulamentação, leis laborais adequadas à realidade da Indústria 2.0 ou 3.0 tornam-se completamente incompatíveis com os conceitos da Indústria 5.0. O capital intelectual torna-se, cada vez mais, o atributo negociável e o único valor existente. Nesse sentido, a mensuração do trabalho em termos de jornadas, horas, volume de produção ou mesmo função ou formação torna-se totalmente obsoleto. O futuro dita que é possível produzir mais em menos horas, ou com menos recursos, ou sem certificações ou acreditações – isso porque a nova indústria cria mais valor a partir do que se produzir MELHOR. Variáveis quantitativas são colocadas de lado e, sob essa óptica, remunerar mais horas com um maior rendimento torna-se “injusto”. Sindicatos, governos, associações laborais, departamentos de recursos humanos, gestores... todos podem ser inovadores e dar o próximo passo, mas sob muitos aspectos, muitas dessas entidades e pessoas dependem, de certo modo, da manutenção dos processos como conhecemos. Fechar os olhos para a Indústria 5.0 pode ser, na visão de muitos, uma atitude de sobrevivência, infelizmente.

Robótica e cibernética O uso de robôs pela indústria é algo que já ocorre há mais de 40 ou 50 anos. Claro, quando falávamos em robôs, nas décadas de 1980

e 1990, estávamos sempre nos referindo a equipamentos que cumpriam mais funções mecânicas – braços robotizados, gruas com operação automatizada, esteiras e sistemas de distribuição. A Indústria 4.0 tornou essas máquinas, antes apenas extensões do operador, algo realmente automatizado. Processos inteiros hoje em setores como o automotivo ou logístico são desempenhados de forma totalmente independente. Os operadores, nesse caso, não mais têm uma proximidade física com as máquinas – apenas operam à distância, inserindo instruções e códigos para orientar seu funcionamento, realizando manutenções e tomando decisões com base em métricas que os próprios robôs e a inteligência artificial que os controla apresentam. Mas, quando falamos dos rumos que a indústria começa a tomar agora, adicionamos à robótica a chamada cibernética, e aqui é necessário diferenciar esses dois conceitos.

Robótica. O termo robótica é usado para designar todo e qualquer sistema mecânico que envolva computadores e computação e seja controlado por circuitos elétricos e componentes eletrônicos, de forma automatizada. Cibernética. Para além da robótica, a cibernética estuda os sistemas robotizados sob a óptica da chamada “retroalimentação”, ou seja, em sua interação e controle pelo “animal”, no caso o homem.

Embora quando falemos em cibernética imediatamente nos venha à cabeça a imagem de “ciborgues” e organismos híbridos, isso não corresponde exatamente à realidade. A verdade é que o advento da Indústria 5.0 e a realidade conectada na qual vivemos hoje naturalmente nos transferiu, em termos sociais e econômicos, da era da robótica para uma era pautada pela cibernética. Atualmente, é impossível falar em sistemas computadorizados e automatizados sem pensar em sua relação com o homem. A retroalimentação, como os idealizadores da cibernética consideravam, ocorre em tempo real na realidade do Big Data. A

cada passo, fornecemos dados para que sistemas automatizados cumpram tarefas e realizem cálculos e processos complexos. Como resposta, recebemos uma informação tratada, que além de permitir às máquinas o cumprimento de seu papel, nos permitem também tomar decisões.

O próximo passo A cibernética tem consequências irreversíveis. A partir do momento em que máquinas foram inseridas em nosso cotidiano, sua própria utilidade não nos permite removê-las sem prejuízos nítidos. Numa realidade na qual todas as máquinas operam a partir de dados submetidos pelo homem, e o homem, por sua vez, toma suas decisões com base no processamento e reações das máquinas, chegamos ao ponto da Inteligência Combinada. Fala-se muito hoje, em áreas como o marketing e a pesquisa científica, em inteligência artificial. O conceito de artificialidade restringe o avanço dessa ciência ao processamento de dados, o que não corresponde àquilo que presenciamos diariamente. Em escala individual, a verdade é que nossas ações já são tomadas com base em um esforço combinado da inteligência humana e da inteligência artificial – uma inteligência combinada. Conceitos como o da Indústria 5.0 colocam em prioridade metodologias sob as quais podemos utilizar as melhores competências da inteligência artificial para expandir nossas próprias competências, e não substituí-las. O próximo passo, tido por muitos como a “singularidade”, na verdade aponta muito mais para uma pluralidade – uma espécie de organismo pensante que não é máquina e nem humana, mas longe de ser constituído de um único cérebro, utiliza os potenciais somados e distintos de dois deles. Em 1965, I. J. Good [18] especulou que a inteligência artificial poderia provocar uma explosão de inteligência, propondo um cenário onde, à medida que os computadores são potencializados, há o aumento da possibilidade de construção de máquinas com maior

capacidade inventiva e de solução de problemas que o próprio homem. Máquinas cada vez mais capazes seriam desenvolvidas a partir desta, acelerando o autoaperfeiçoamento recursivo, resultando numa enorme mudança qualitativa antes de quaisquer limites superiores impostos pelas leis da física ou da computação teórica.

O FUTURO DO TRABALHO Inteligência combinada. Essa palavra ainda não diz muita coisa à maioria, mas com base nos princípios que abordamos no capítulo anterior, é possível dizer que, ao longo dos próximos anos, não apenas tarefas ou processos serão completamente absorvidos por máquinas e sistemas de inteligência artifical, como também profissões inteiras. A reinvenção do trabalho é algo que vem sendo, há anos, sutilmente cobrado de empresas e autoridades à medida que modificamos nossa própria rotina. Governos hoje legislam ainda de forma desajeitada em relação às novas tecnologias que modificam o fenômeno do trabalho e, ainda que a omissão seja a resposta em alguns países do mundo, o fato é que o futuro do trabalho está em curso – e não irá esperar por decretos. Do lado das empresas, a falta de adequação às novas realidades do trabalho reverterá, cada vez mais, em uma menor competitividade no mercado. Setores inteiros correm o risco de se ver desconstruídos à medida que não tomem ações para moldar seu quadro ao redesenho das relações trabalhistas. No Brasil, algumas modificações ofereceram provimento, ainda que indireto, às novas realidades de trabalho. Ainda assim, as modificações realizadas no âmbito da Consolidação das Leis do Trabalho (CLT) estiveram muito mais ligadas a aspectos contratuais do que aos hábitos do trabalhador – possivelmente um erro que poderá cobrar seu preço nos próximos anos. As novas relações de trabalho, suportadas não apenas pela tecnologia, mas também pela própria modificação da sociedade em função dos avanços que ocorreram nos últimos 20 anos, criam espaço para realidades que afrontam a concepção de “emprego” que empresas, autoridades e mesmo pessoas ainda possuem: Trabalho à distância e virtual; Uso de recursos próprios; Gestão por projetos; Multiplicidade de competências e funções;

Avanço dos contratos de curto prazo; Modificações no campo da ética do trabalho; Crescimento do capital intelectual em detrimento do capital motor.

Uma nova maneira de pensar as relações de trabalho O século passado foi concebido dentro de uma óptica da proximidade, em termos trabalhistas. Desde a produção em massa, na primeira metade do século XX, legiões de trabalhadores migraram para próximo de seus locais de trabalho, às vezes formando cidades completamente do nada. Cidades tornaram-se metrópoles, ao incorporar fábricas à sua malha urbana, como foi o caso de São Paulo, no Brasil. Em outras regiões, indústrias instaladas em meio ao nada criaram, inicialmente, pequenas vilas, que evoluíram para cidades de médio porte com toda a estrutura de serviços necessária para a população de operários e trabalhadores. Um exemplo disso é a cidade paranaense de Telêmaco Borba, praticamente surgida em função de uma imensa instalação da papeleira Klabin. Passada a Segunda Guerra Mundial, as metrópoles se voltaram para o segmento de serviços. Com populações imensas, a demanda por todo tipo de serviço, desde bancos e financeiras até hospitais, escolas, centros comerciais e empresas de vários setores, cresceu em escala geométrica. Novamente, todos os profissionais que atendiam a essa população precisavam estar ali, ao lado. Fisicamente falando, a própria explosão populacional urbana deflagrada pela indústria começava a demandar uma segunda explosão populacional – agregando prestadores de serviços para essa enorme massa trabalhadora. E essa nova explosão ocorreu. A cidade de São Paulo, maior no Brasil, veria sua população passar de pouco mais de 2 milhões de pessoas, em 1950, para quase 11 milhões, no ano 2000. No mesmo

período, a população de Belo Horizonte passou de 350 mil pessoas para mais de 2,2 milhões. Outras cidades brasileiras que receberam parques industriais passaram pelo mesmo processo. Contudo, o século foi chegando ao fim – e as indústrias encontraram lugares mais baratos e menos problemáticos para manejar suas produções – deixando populações gigantescas a viver em cidades que cresceram em função do regime operário e dos serviços que o mesmo demandava. A economia de serviços surgiu com força total. As enormes populações encontraram sustento em um setor de serviços com novas frentes, que ao mesmo tempo tornou-se uma necessidade para dar suporte ao estilo de vida urbano. Em regiões industriais tradicionais, décadas de produção e famílias inteiras empregadas por empresas do setor secundário criaram uma classe média estável e em ascensão. Em regiões como o ABC, operários das décadas de 1970 e 1980 formaram filhos, tornaram-se membros da classe média alta com aposentadorias e benefícios no fim da vida e passaram a formar um público capaz de consumir mais. Porém, a despeito da migração para a economia de serviços, a sociedade permaneceu, por alguma razão, apoiada nos valores do “horário comercial” e do trabalho em turnos. Claro que nós, profissionais de marketing, arquitetos, designers e criativos o negaremos – mas a verdade é que, mesmo com a chegada do novo milênio, continuamos a pensar como operários. Mas as gerações que começaram a ingressar no mercado a partir do ano 2000 não mais compartilhavam do nosso ponto de vista tradicional.

Trabalho como realização

sustento

e

trabalho

como

Seria injusto dizer que nossos pais e avós não tiveram realização profissional. A verdade é que muitos deles chegaram ao final da vida

com orgulho do que haviam construído e senso de realização em relação ao legado que foram capazes de deixar (ou que deixarão). Após 30 ou 40 anos de trabalho, a maioria de nós é capaz de sentir-se realizado de algum modo. Honroso e justo para aqueles de nós que se aposentam, mas absurdamente insuficiente para as gerações que começaram a firmar sua pegada a partir do final da década de 1990. Como regra, nossa sociedade coloca o trabalho como sustento, até mesmo sacrifício. A realização, defende o senso comum, vem com “o tempo”. É como se tivéssemos de esperar décadas a fio para atingirmos nosso propósito e que nossa própria realização fosse a recompensa atrás da qual estaremos por todo esse tempo. Sempre vislumbrando-a, mas sem nunca atingi-la “antes do prazo”. As relações de trabalho do mundo em que temos vividos ao longo dos últimos dois séculos evoluíram sempre conforme os ditames do sistema capitalista. Trabalhamos por dinheiro. O próprio idealizador do liberalismo econômico e precursor da visão capitalista da economia, Adam Smith [19], ressaltou em sua obra que o ser humano trabalha com o único intuito de ganhar dinheiro – e que o trabalho que as pessoas cumprem não quereria dizer muita coisa, uma vez que estivessem sendo justamente remuneradas. Os tempos eram outros e mesmo Smith possuía uma visão da natureza humana bastante avançada para seu tempo. Suas teses a respeito da compensação, ainda que financeira, mudariam não apenas a economia em todo mundo, mas também as relações de trabalho. Nomes da administração de produtividade, nos séculos seguintes, como Taylor e Fayol, engendrariam diversos sistemas e métodos para dividir o trabalho e criar mecanismos de incentivo e compensação que levariam, eventualmente, à própria viabilidade da indústria de produção em massa, no começo do século XX. Tomar como base para os tempos atuais, entretanto, as relações de trabalho existentes na aurora da Revolução Industrial ou mesmo nos tempos de Henry Ford seria um grande disparate. Ainda assim, a visão trabalhista da primeira metade do século XX ainda é, em grande parte do mundo, o senso comum das relações empregador e empregado. Isso não ocorre apenas em âmbito legal e regulatório, como querem fazer crer muitas das empresas brasileiras – ainda

enxergamos o trabalho sob essa óptica nas empresas, no meio acadêmico e, principalmente, em nosso subconsciente comum como sociedade. Somos criados, educados, formados e treinados para perseguir carreiras que produzam resultado financeiro, segurança, que ofereçam compensações em longo prazo em troca de sacrifícios imediatos. A justiça e a realização tardia são a recompensa para a dedicação, o esforço e mesmo a infelicidade atuais. O mundo conectado iniciou, pouco mais de 20 anos atrás, a corrosão dessa forma de pensar. Aqueles que conviveram com gerações nascidas até 1960 ainda enxergam muitos dos “novos trabalhadores” como preguiçosos, arrogantes, desinteressados ou mesmo lunáticos. Dia após dia, no entanto, ouvimos casos de profissionais bem-sucedidos sob a óptica social trocando suas admiradas e promissoras carreiras por hobbies, trabalhos de menor remuneração ou simplesmente um grande ponto de interrogação mais à frente em suas vidas.

A ascensão das carreiras criativas Criou-se uma convenção de apelidar profissões nas quais a exigência de conformidades e processos é menor de “criativas”. Embora a criatividade possa ser encontrada mesmo em áreas e profissões que, em tese, não são em absoluto férteis em termos de imaginação, as profissões ditas criativas representam no mundo todo uma enorme tendência. Nos próximos 20 anos, provavelmente mais de metade das carreiras e profissões que conhecemos poderão se tornar completamente obsoletas. Ainda que isso possa representar uma enorme pressão sobre os estudantes de hoje, que terão de optar por carreiras que podem levá-los a um mercado onde são essenciais ou onde serão de pouca utilidade, a verdade é que a extinção não é o destino desses profissionais. A mudança, contudo, será drástica.

A tecnologia, como produto direto do acesso mais rápido e abundante à informação, torna profissões obsoletas ou as obriga a mudar completamente seus rumos desde os primórdios da humanidade. Mesmo com a discordância e protestos das vertentes mais retrógradas do trabalhismo em todo o mundo, a verdade é que profissões jamais se extinguem – elas evoluem.

Os mitos do conservadorismo O discurso sempre se mantém conservador nos primeiros passos. Com as novas relações de trabalho, não poderia ser diferente. Como ocorreu em diversas circunstâncias anteriores, a tecnologia é vista como uma ameaça por alguns grupos organizados, como sindicatos e associações. A verdade é que determinados mitos associados às modificações dos processos e da cultura do trabalho não sobrevivem a uma segunda argumentação, mas de forma a organizar, podemos dizer que há quatro previsões que afrontam diretamente os mitos relacionados ao futuro do trabalho: 1. A robótica e a inteligência artificial criarão novas funções e possibilidades de trabalho e não o desemprego em massa. Máquinas não se criam sozinhas, fisicamente e tecnologicamente falando, e além disso, como vimos na questão da cibernética, a nova geração de automatização foi toda concebida como um processo de interação homem e máquina. 2. A guerra por talentos colocará cidades e países em confronto direto. Com trabalhadores assumindo projetos e posições a despeito de onde possam estar em escala global, por conta da internet, cidades e até países passarão a competir entre si por talentos. Países bálticos recentemente abriram um programa que concede cidadania a investidores e empreendedores simplesmente se estes decidirem registrar negócios ali. Na verdade, esse processo irá retirar um pouco o peso da

concorrência do indivíduo e o colocará nos ombros das autoridades e governantes. Em outras palavras, investir em educação e qualidade de vida significará mais do que votos para a maioria dos administradores públicos. 3. Freelancers serão uma maioria em alguns países e setores. Previsões apontam, por exemplo, que a força de trabalho norte-americana será majoritariamente freelancer a partir do ano de 2027 [20]. Projeções apontam que em 2018 o país deve terminar o ano com cerca de 60 milhões de pessoas trabalhando como freelancers. 4. Alimentada pela necessidade, a universidade terá de mudar diametralmente seus conceitos e sua organização. Em países como os EUA, o sistema de ensino hoje produz trabalhadores sem preparo para assumir novas funções que surgem como produto de um mercado mais flexível, além de criar adultos que já iniciam carreiras com pesadas dívidas. A quebra do conservadorismo do meio acadêmico é a peça que falta para que a própria sociedade possa aceitar melhor as modificações que vêm sendo impostas à cultura do trabalho.

O FUTURO DA PRIVACIDADE Chegamos ao grande paradoxo de repensar o futuro do mundo “smart”. Na Era da Informação, e em sua posterior “Era da Imaginação”, o coletivo conectado é capaz de criar informações e apagar fronteiras de modo a transformar dados que, isoladamente, têm pouca ou nenhuma utilidade, em complexos modelos que embasam a tomada de decisões das mais poderosas organizações dentro da sociedade. O modo smart de pensar criou, ao mesmo tempo, uma espécie de projeção do inconsciente coletivo perfeitamente legível, contudo exacerbou a individualidade e a diversidade em todas as camadas sociais. Compartilhamos e cooperamos mais, porém exercemos de maneira mais evidente e nítida nossa personalidade. Sociologicamente falando, nunca fomos tão próximos – em termos de personalidade e cultura, entretanto, o que nos une muitas vezes nos afasta.

Preocupações éticas e legais As consequências das novas tecnologias e fronteiras da Internet das Coisas e da nova economia para o indivíduo são um dos principais campos de discussão da atualidade dentro da sociologia, filosofia e até mesmo entre juristas. Dilemas, óbvios, como a forma com que a modernidade interferiu no direito à privacidade, são apenas os mais evidentes impactos de uma sociedade inteiramente conectada. O uso empresarial e governamental da tecnologia e da informação, ainda que realizado de maneira inteligente e em benefício da sociedade como um todo, levanta aspectos preocupantes na esfera individual [21]:

Dados em posse de entidades praticamente desconhecidas por parte do indivíduo, as quais reivindicam propriedade sobre tais informações; Perda da privacidade em favor da prestação de serviços gratuitos; Diferença nítida de poder entre os que observam e aqueles que são observados; A ciência de estar sendo observado como fator de alteração comportamental no indivíduo; Criação de novas classes e estratos sociais com base no acesso ou propriedade da informação; Dilemas referentes à propriedade dos meios de análise das informações.

O indivíduo do futuro, sem dúvida, tem maior poder. Seu comportamento, opinião, gostos e necessidades exercerão influência cada vez maior no ambiente – suas prioridades são parte de uma inteligência coletiva que orienta as decisões em escala global. Contudo, à medida que não tem o indivíduo acesso direto aos meios capazes de interpretar essa inteligência coletiva, segue como parte destituída do controle. O indivíduo das próximas décadas sentirá de modo cada vez mais real a presença de suas preferências no cenário urbano, na internet, no mercado consumidor e no mercado de trabalho. No entanto, sua participação na tomada de decisões em si será cada vez menor.

A utilização ética da informação A esfera do indivíduo se vê ameaçada, como muitos argumentam. A privacidade e a intimidade parecem não mais fazer sentido nos dias da internet universalizada. Contudo, especialistas enxergam muito mais uma mudança nas concepções de privacidade e intimidade no que a extinção desses direitos.

A empresa Altimeter é uma consultoria especializada em auxiliar líderes e empresas a lidar com novos paradigmas das inovações. A empresa possui interessante documentação a respeito da ética no uso de informações – e sua diferenciação entre os limites legais do uso do Big Data [22]. A esfera legal com toda sua tramitação e ritos e procedimentos simplesmente não é capaz de acompanhar a própria evolução das tecnologias que proporcionam novos usos e aplicações para o Big Data. Cumprir a lei não é mais algo suficiente para criar sentimento de confiança junto ao indivíduo. Por outro lado, benefícios criados a partir do coletivo também afetam de maneira positiva a vida do indivíduo, de modo que a simples garantia incondicional de privacidade e intimidade poderia, em médio prazo, levar a inconvenientes em escala social e individual. O futuro do indivíduo é regido por uma equação onde figuram duas variáveis: uma delas quantifica os benefícios sociais e econômicos de um acesso maior à informação e à privacidade, outra quantifica o valor da privacidade e dos direitos individuais. Embora essas duas variáveis pareçam inversamente proporcionais, a verdade é que experimentos, estudos e práticas já adotadas por algumas empresas e governos mostram exatamente o contrário. Sob muitos aspectos, o próprio comportamento humano demonstra indícios de que, mesmo sem a interferência de atores externos, o indivíduo está naturalmente abrindo mão de sua privacidade. Se avaliarmos o comportamento da maioria das pessoas em redes sociais, é possível notar que o desejo de privacidade é algo relativamente superado. Sim, as pessoas ainda precisam de determinados pontos de intimidade em sua vida, porém a própria forma com que compartilham informações, histórias de vida, alegrias e frustrações mostra que a internet 2.0 já foi capaz de reconstruir os conceitos de privacidade para a maioria da sociedade. Assim sendo, a própria noção de ética parece ter mudado. A verdade é que quando falamos em privacidade, do ponto de vista da tecnologia da informação, estamos lidando com o conceito de valor da informação. Para o indivíduo, a falta de confiança está mais relacionada, dentro do comportamento das gerações mais recentes,

com o “tipo de uso” que empresas e organizações fazem de informações pessoais do que com a privacidade em si. E claro, confunde-se privacidade com direitos de outra natureza. Informações bancárias, fiscais e jurídicas usadas de forma indevida ou sem consentimento não compreendem um atentado à privacidade do indivíduo – e sim crimes de fraude, estelionato, falsidade ideológica e afins.

Proteção versus privação A esfera individual e os ensejos de preservação das informações privadas e da intimidade poderão levar, em um futuro já em construção, a supostas soluções que podem gerar mais problemas do que resultados, além de criar dificuldades para a evolução natural das coisas. As preocupações com a esfera da privacidade levaram a União Europeia, e também outras regiões do globo, a redesenhar completamente suas normas e convenções a respeito de como a informação é tratada na internet. O GDPR, General Data Protection Regulation, foi instaurado e entrou em vigor em toda a Europa em maio de 2018. Em linhas gerais, o regulamento oferece autoridade ao proprietário da informação – o indivíduo – em relação a todos que armazenam ou processam essas informações. Aspectos como o “direito a ser esquecido”, que permite que usuários apaguem contas e perfis em definitivo, bem como transferir e migrar seus dados a qualquer momento, parecem convergir para um ponto no qual a pessoa seria capaz de gerir suas próprias informações. Por outro lado, o nível severo de exigências a empresas pode criar instâncias burocráticas desnecessárias e abrir caminho para um enorme passo atrás no desenvolvimento de ferramentas e sistemas mais inteligentes para o público em geral. O futuro do indivíduo depende hoje menos do indivíduo e muito mais da postura das autoridades que ainda exercem determinado

controle sobre a internet e o tráfego de dados no mundo. Tentativas exacerbadas de proteção podem levar diretamente à privação. O desejo e a necessidade do indivíduo parece estar em risco em função dos medos e receios do coletivo, frente a novas tecnologias que anos atrás pareceriam mágica. O suposto desejo de não ser rastreado ou controlado por algoritmos e robôs virtuais que não têm, em primeira instância, segundos interesses, coloca o indivíduo à mercê das decisões de um grupo que em tese protegerá seus desejos de anonimato, porém às custas, talvez, das próprias vantagens que um universo conectado seria capaz de oferecer. A verdade é que o indivíduo se acostumou, por mais que não o admita, à rastreabilidade e ao controle não subjetivo exercido pela Internet das Coisas e pelo Big Data. Não gostamos de ser “monitorados” pelo governo ou por empresas, mas já não conseguimos viver sem usar dispositivos capazes de nos oferecer vantagens e serviços com base em nossa localização. Repudiamos qualquer tentativa de coleta de nossos dados pessoais e bancários, mas não mais suportamos ter de preencher extensos formulários e documentos a cada vez que precisamos utilizar serviços financeiros ou simplesmente realizar uma compra. A privacidade é algo em questão – os próximos anos, em meio a erros e acertos, criarão a nova concepção da privacidade do indivíduo, para uma sociedade na qual a informação é poder para quem a armazena ou controla, mas também parece representar maior acesso e participação para aqueles que decidem cedê-la ou compartilhá-la. Enquanto o novo conceito não se define, tornam-se claros alguns pontos da esfera individual. O significado de segurança, de acesso e mesmo de direitos individuais já mudou, e mudará ainda mais conforme a tecnologia redesenhe o próprio cotidiano: Proteção. A segurança e a proteção do indivíduo simplesmente não fazem mais sentido quando considerada apenas sob o ponto de vista físico. A segurança da informação e da identidade criaram novas necessidades de regulamentação. Algumas delas parcialmente acertadas, outras completamente irreais sob o ponto de vista da aplicabilidade. As novas necessidades de proteção e segurança do indivíduo darão em

breve origem a novos serviços, não apenas leis, como apólices de seguro relacionadas à própria informação on-line ou contra incidentes de roubo de identidade, por exemplo. Direitos e liberdades. A internet é livre e democrática. O mesmo se pode dizer da grande maioria dos países ocidentais nos dias de hoje. Contudo, como ocorre com democracias, a liberdade do indivíduo e seus direitos encontram como limite a esfera de direitos e garantias dos demais indivíduos. Ainda é difícil estabelecer essas linhas no mundo conectado – até onde vão os direitos e garantias “digitais” de cada um? Acesso. Discussões em todo o globo cogitam a inclusão do acesso à web como garantia e direito fundamental do indivíduo. Embora o caminho natural seja o da internet livre e do acesso universalizado, a mudança para esse novo paradigma será capaz de transformar radicalmente ou mesmo destruir completamente um considerável setor econômico dos dias de hoje – as operadoras de internet. A maioria delas já se prepara para uma realidade na qual a receita será produzida através da oferta de serviços, mais do que da venda de acesso, entretanto ao observar legislações de diversos países a respeito do mercado de internet móvel ou de fibra, a impressão que se tem é a de que o indivíduo terá meias garantias – e que o real acesso continuará a ser algo elitizado, a despeito do discriminado em lei.

A verdade é que o tópico tem gerado preocupações dentro de todas as esferas de poder. Proteger o indivíduo, num mundo completamente conectado, é fundamental. Entretanto, dentro de todas as discussões que se encontram hoje à mesa, falta exatamente aquela mais fundamental: até que ponto o indivíduo REALMENTE quer ou precisa de sua privacidade, caso isso signifique abrir mão do que a falta dela é capaz de proporcionar, em termos de benefícios?

O dilema das “políticas de privacidade” O comportamento humano no ambiente on-line criou pessoas mais ansiosas no sentido de responder a estímulos. Quem trabalha com marketing digital sabe que uma palavra a mais no texto de um simples botão pode reduzir ou ampliar o número de cliques de forma assombrosa. O meio on-line, permeado por sites que são hoje sinônimo de informação, como Google e Wikipédia, oferece informação vasta e categorizada, de modo que usuários possam escolher, aceitar ou descartar tudo o que veem em questão de segundos. Esse comportamento e a existência das ditas “Políticas de Privacidade” criou dilemas morais e mesmo legais que parecem que ainda se arrastarão por anos. Um verdadeiro antônimo daquilo que vemos no mundo digital, políticas e os tais termos e condições são documentos escritos com jargão jurídico, ignorados pela imensa maioria da população e, por vezes, criados com esse mesmo intuito. Ainda em 2013, antes que estourasse o caso Cambridge Analytica, o documentário Terms and Conditions May Apply criticava as posturas de empresas como Facebook, Google e LinkedIn em seus termos e condições apresentados para novos usuários dos serviços. O filme desvenda determinados termos e cláusulas presentes nesses documentos que ninguém praticamente lê que permitiam o uso indiscriminado de dados por outras empresas, órgãos governamentais e a livre comercialização de dados e perfis pessoais praticamente com qualquer finalidade. Na Europa, em maio de 2018, entrou em vigor o chamado Regulamento Geral de Proteção de Dados. A norma europeia coloca uma série de exigências em relação aos direitos dos usuários, os “titulares de dados”, e obriga empresas a expor suas políticas de privacidade de forma mais direta e sem rodeios, para que usuários possam escolher que dados pretendem compartilhar, sem prejuízos ao acesso ou mesmo uso desses serviços. Os direitos conferidos pela lei são diversos: Direito à transparência, ou seja, saber como seus dados serão utilizados;

Direito à informação, ou seja, ouvir da empresa que processa dados uma satisfação sempre que assim requerer; Direito de acesso, que compreende o direito de acessar os dados concedidos a uma empresa sempre que houver processamento dos mesmos; Direito à retificação, sempre que houver dados inconsistentes; Direito ao apagamento, ou o “right to be forgotten”. Esse direito confere ao usuário o poder de solicitar exclusão completa de seus dados de um banco; Direito à limitação de tratamento, que permite ao usuário restringir a forma com que seus dados são processados; Direito à oposição, ou negar a comercialização dos seus dados; Direito à notificação, sempre que seus dados forem de alguma forma ameaçados.

Com pouco tempo da lei em vigor, contudo, o que ainda se vê na Europa como um todo são termos e condições ou políticas de privacidade sendo redigidas por advogados em cima de modelos. Apesar da norma obrigar websites e aplicativos a requerer o consentimento do usuário e permitir que o mesmo se oponha a determinados tipos de exposição, a verdade é que os documentos relacionados à privacidade ainda aparecem em muitos sites recheados de “juridiquês”, em uma forma de leitura pesada e de difícil compreensão – não muito diferente do que se fazia até então. Nos EUA, apesar de algumas empresas tomarem medidas específicas e iniciativas estarem em curso, uma legislação mais dedicada a essa questão ainda é esperada.

Cambridge Analytica e Facebook O Caso Cambridge Analytica é talvez o maior escândalo de privacidade já deflagrado desde os primeiros grandes vazamentos do WikiLeaks. A Cambridge Analytica é uma empresa britânica de consultoria política que analisa dados para criar estratégias de comunicação em processos eleitorais. A empresa, em

resumo, utiliza testes de personalidade e parâmetros como a idade, raça, rendimentos, naturalidade, comportamentos de consumo e hábitos on-line para traçar o perfil psicológico de potenciais eleitores. A Cambridge Analytica começou a trabalhar com candidatos norteamericanos do Partido Republicano (GOP) em 2014. Antes de trabalhar para a campanha de Donald Trump, a empresa já tinha feito parte das estratégias de comunicação dos republicanos Ted Cruz e Ben Carson, entre outros. Em 2017, jornais como o The New York Times lançaram uma bomba no mercado: a Cambridge Analytica havia recolhido dados de 50 milhões de perfis do Facebook que posteriormente utilizou para auxiliar na campanha do presidente norte-americano Donald Trump. Os dados foram colhidos por meio de um aplicativo do Facebook, como vários nos quais respondemos a perguntas para definir “que personagem somos” em algum seriado de TV. O app para Facebook This Is Your Digital Life colheu dados de mais de 300 mil participantes e, a partir dessas respostas dadas a um teste de personalidade, a Cambridge Analytica conseguiu informações sobre mais de 50 milhões de pessoas. O envolvimento do Facebook e de seu CEO, Mark Zuckerberg, teve início quando foi apurado que, havia pelo menos dois anos, a empresa estava totalmente a par dos dados que vinham sendo colhidos pela Cambridge Analytica. O argumento dado pela Cambridge e pelo Facebook era o de que os 300 mil respondentes da pesquisa haviam dado seu consentimento, embora se afirmasse que a pesquisa teria fins “acadêmicos”. O caso terminou com o depoimento de Zuckerberg ao Senado americano, e uma aparente admissão de culpa por parte do CEO, que foi também requisitado pelo Parlamento Europeu e lideranças de outros países.

Privacidade “by design” e “by default” O regulamento europeu atual sobre privacidade e proteção de dados, que passou a vigorar a partir de 2018, traz à tona dois conceitos importantes relacionados à produção ou oferta de produtos e serviços e a questão da privacidade e da proteção à esfera

individual [23]. O documento traz dois conceitos que são sugeridos, ou mesmo impostos a empresas na formulação e criação de sua oferta: Privacy by Design, que poderia ser traduzido por “Privacidade desde a concepção”; Privacy by Default, que poderia ser traduzido como “Privacidade por definição”;

A privacidade desde a concepção implica que empresas precisam ter em mente a privacidade do consumidor final em cada uma das etapas do processo, não apenas na fabricação, mas desde a própria concepção ou criação de cada produto ou serviço [24]. Essa nova forma de criar nas empresas estaria apoiada em sete princípios fundamentais: 1. Postura preventiva e não corretiva; 2. Privacidade como configuração padrão (o que se relaciona ao segundo conceito que veremos); 3. Privacidade incorporada no próprio design; 4. Funcionalidade positiva; 5. Segurança de ponta a ponta; 6. Visibilidade e transparência; 7. Respeito pela privacidade do usuário e consumidor.

Embora o conceito seja assertivo e traga, sem dúvida, maior proteção à privacidade do indivíduo, o segundo princípio de “privacy by default” remete à privacidade como configuração padrão. Eis aí, talvez, a maior esfera de discórdia dentro de todos os regulamentos que vêm acompanhando esses dois conceitos. As boas práticas de atendimento às necessidades e preferências do usuário parecem, sob esse argumento, menos importantes do que o próprio “resguardo” de empresas e autoridades em relação a problemas decorrentes da privacidade. Ao impor configurações padronizadas por definição, tira-se do usuário o poder de decisão sobre as próprias configurações que

gostaria ou mesmo necessitaria nos produtos e serviços que pretende ou prefere consumir. Os primeiros esforços de compliance de serviços on-line europeus em relação ao GDPR demonstra claramente o problema. Websites, lojas on-line e aplicativos na nuvem precisam, agora, exibir inúmeros avisos, instruções, argumentações e colher dos usuários confirmações e aceites a todo momento – muitas vezes de forma repetitiva e até intrusiva. O marketing já compreendeu há tempos que exigir do usuário informações ou explicações demais ou interromper sua própria jornada na web em prol de questionários ou confirmações é algo que simplesmente não funciona. Talvez o melhor exemplo de como a evolução caminhou no sentido contrário seja o sistema do próprio Microsoft Windows. As primeiras versões do Windows exibiam caixas de confirmação e diálogo, alertas e opções praticamente após cada nova ação realizada pelos usuários. O resultado era a insatisfação do consumidor em relação ao produto, a criação de um sentimento de interrupção e improdutividade e até mesmo a ocorrência de erros e falhas – simplesmente porque a maioria dos usuários clicava ou aprovava, após algum tempo, qualquer dos avisos, simplesmente pela falta de paciência para ler ou interagir com eles. Bem-intencionada que seja, a exigência europeia pode levar a pouca ou nenhuma eficácia. O quanto os usuários irão de fato ler ou estar cientes dos riscos ou condições para usar serviços e produtos on-line é algo questionável, para dizer o mínimo. Quando questionado a respeito, o usuário de fato aponta preocupações em relação à preservação de sua privacidade. Entretanto, quando passamos à esfera comportamental, os meios impostos para que tal privacidade seja mantida, em geral, criam ainda mais inconformismo e frustração por parte do indivíduo. Isso significa que os conceitos de privacidade “by design” ou “by default” parecem apenas representar uma primeira tentativa de reguladores e indústrias para manter a privacidade do indivíduo de maneira, também, a preservar seus próprios negócios. Pensando no modelo de redesenhar o futuro, entretanto, esses conceitos dificilmente irão manter-se inalterados por muito tempo.

O aprendizado Smart O aprendizado é, em termos formais e acadêmicos, ainda uma das poucas áreas que mantêm, mesmo que aderindo a pequenas prerrogativas da era digital, seu tradicionalismo. Ainda aprendemos em salas, observando exposições de tutores, percorrendo exercícios e testes sem fim. Iniciativas inovadoras vêm ocorrendo em países da União Europeia, Escandinávia, algumas comunidades americanas e escolas de ponta na Ásia. Um modelo, entretanto, ainda não ganhou escalabilidade. Temos jovens, nos dias de hoje, aprendendo tudo o que escolas não ensinam na velocidade do som, enquanto que academicamente ainda estamos na era da propulsão a vapor. Há muitos conceitos e correntes dentro da educação, mas hoje no meio digital falamos em “learning 3.0” como uma realidade instituída [25]. Essa abordagem observa o fenômeno do aprendizado em três eras distintas, que hoje coexistem: Learning 1.0, onde o sujeito que aprende é o receptor do conhecimento de forma passiva, aguardando que um especialista ou instituição acreditada decida o que e como terá de aprender. As universidades ainda operam em grande maioria desse modo, e mesmo sistemas educacionais de extensão e formação profissional em países europeus, como Portugal e Espanha, ainda usam esse mecanismo. Embora as plataformas “preguem” dinamismo e interação, a verdade é que processualmente não há evolução. Learning 2.0, onde o aprendizado investe mais tempo no diálogo, cria mais interações e seleciona matéria e objeto de aprendizado com base em dúvidas, sugestões, questões e indagações do sujeito que aprende, não apenas da figura do especialista. Learning 3.0, um aprendizado baseado no compartilhamento. Jovens aprendem dessa forma hoje em velocidade e espantosa e, em algumas áreas específicas, abordagens acadêmicas mostram-se completamente ineficazes em comparação com alternativas baseadas no compartilhamento, como é o caso da

programação, web design e até mesmo de alguns aspectos do marketing digital.

O FUTURO DO MERCADO As maiores empresas do mundo nos últimos dez anos não se parecem nada com os gigantes que dominaram a economia mundial praticamente ao longo de todo o século XX. À parte de algumas relíquias da economia tradicional, a verdade é que hoje possuímos um perfil completamente diferente de multinacional. Há características-chave que separam as novas empresas globalizadas daquelas que permearam o século passado: Capacidade de atuação rápida em qualquer mercado mundial; Localização de sedes irrelevante; Capacidade inovadora e alta tecnologia; Produtos e serviços com escalabilidade infinita.

Alguns poderão argumentar que todos esses fatores poderiam ser relacionados com empresas da economia tradicional, como General Motors, Coca-Cola ou Walmart. Contudo, isso não é verdade em seu todo. Essas três empresas, embora ainda figurem entre as maiores do mundo, não têm uma capacidade de atuação rápida em qualquer mercado do mundo. Para que ingressem em países nos quais não operam, essas empresas precisam, necessariamente, criar relacionamento forte com parceiros locais, realizar a exportação ou importação de produtos, estabelecer uma sede ou unidade nesses países e, finalmente, obedecer um padrão de crescimento que depende, mesmo quando promissor, do tamanho da população local e seu poder aquisitivo. Em relação à capacidade inovadora e tecnologia, o argumento, para GM, Coca-Cola ou Walmart, é no mínimo questionável. Uma indústria automotiva como a GM, hoje em dia, basicamente avança em acessórios e design mais do que qualquer outra coisa, e novas tecnologias, no mercado automotivo, geralmente respondem apenas a dilemas de custos ou a exigências governamentais.

Para a Coca-Cola, o que dizer? O produto é basicamente o mesmo de cem anos atrás, com pequenas variações e. Embora a marca sempre tenha sido inovadora em seu marketing, está longe de ser considerada pioneira em qualquer aspecto. Além disso, a Coca-Cola apenas se estabelece de forma relevante em um país quando possui uma estrutura “emprestada” de distribuidores e envasadores locais. Sua escalabilidade, nos patamares atuais, é quase inexistentes – o tamanho, após um século, fez com que a perda de participação seja muito mais provável do que o ganho de escala em praticamente qualquer mercado. Finalmente, o Walmart é o maior varejista do mundo. Como tal, precisa de lojas, construir estruturas, montar complicados esquemas logísticos e desenvolver fornecedores e parceiros locais com grande cuidado em qualquer mercado. A verdade é que nenhuma dessas três empresas possui, em termos absolutos, uma participação global, exceto talvez pela CocaCola – contudo, mesmo nesse último caso, foram necessários quase 120 anos para que a empresa pudesse estar realmente em qualquer país do mundo (e ainda há algumas pequenas exceções). Mas o que dizer do Google, da Amazon, da própria Microsoft e de diversas empresas de tecnologia ainda mais recentes? Em qualquer países no qual exista um único usuário de computador conectado à internet, há grandes probabilidades de que esse indivíduo esteja consumindo e usando produtos e serviços dessas três empresas ao mesmo tempo.

Como o pensamento concorrência

“smart”

afeta

a

O principal aspecto da mentalidade smart dentro do campo empresarial é a total modificação do conceito de concorrência. Em alguns casos, esse conceito agrega valores da colaboração – embora um cenário de competição não deixe de existir. Em outros casos, empresas têm de rever completamente seus valores e a forma com

que se apresentam ao mercado, sob o risco de serem engolidos por alguns concorrentes até ontem inexistentes no mercado. Como vimos no Futuro da Indústria, novos tipos de produtos e serviços conectados estão alterando o cenário da concorrência, expondo empresas de forma mais direta à opinião de seus clientes e até mesmo de seus concorrentes. Em alguns casos, a entrada de produtos smart e conectados num segmento pode inclusive levar a uma reformulação completa do tipo de negócio em que as empresas desse setor estão envolvidas. Alguns exemplos parecem nítidos e tendem a tornar-se ainda mais radicais nos próximos anos: Fenômenos como o car sharing e formas de “aquisição” de veículos como o renting estão criando empresas automotivas que, cada vez mais, tendem a se tornar prestadoras de serviços, ao invés de comercializadoras de bens duráveis. Sites como o AirBnB parecem estar mudando completamente o jogo para a indústria hoteleira. Em alguns países do mundo, hotéis e pousadas já sofrem com a concorrência de pessoas que hospedam viajantes em imóveis próprios, inclusive oferecendo serviços de hospitalidade. Do mesmo modo, práticas como o couch surfing e a popularização e expansão das fazendas colaborativas estão tornando possível para turistas viajarem sem ter de efetuar gastos com hospedagem – algo que terá de ser enfrentado de modo inteligente pela indústria turística nos próximos anos. Monopólios governamentais, como os Correios ou a CTT, em Portugal, e gigantes logísticos como a Fedex e a UPS ainda têm conseguido barrar a expansão de alternativas colaborativas e baratas de remessa e postagem de mercadorias e documentos. Contudo, novas ideias e sistemas surgem com enorme velocidade, o que deve mudar o panorama da indústria logística de forma brutal nos próximos dez anos.

O pensamento de como podemos redesenhar o futuro dentro do modelo smart está transformando a ideia de que tamanho é o fator necessário para criar concorrência. Hoje, pessoas físicas conseguem competir de igual para igual com corporações que empregam

milhares de funcionários e operam em todo o globo. Com a internet e a descentralização do trabalho, especialmente em áreas criativas, criou-se a possibilidade de operar de maneira multinacional, ainda que no caso de um indivíduo ou profissional liberal. Designers, programadores, redatores e mesmo advogados ou engenheiros hoje, comumente, têm clientes em cinco, dez ou vinte países diferentes ao mesmo tempo. Empresas em suas áreas de atuação, por outro lado, muitas vezes não conseguem diversificar mercados de forma tão simples e rápida, tendo de ficar presas a uma atuação regionalizada. Quando saímos da esfera dos serviços, produtos parecem estar criando o mesmo tipo de “descolamento”. Os produtos smart possuem características únicas, capazes de virar o jogo em qualquer área de negócios, e que evoluem de forma gradativa [26]. O novo ciclo de avanço dentro de um mercado, com produtos inteligentes e conectados, ou mesmo serviços, compreende quatro estágios distintos: Monitoramento; Controle; Otimização; Autonomia.

Monitoramento Os produtos e serviços smart possuem uma capacidade de monitoramento decorrente de sua própria utilização e comercialização. Eles geram dados, que permitem ao fabricante ou fornecedor ter acesso a condições do produto, condições do ambiente externo, maneiras com que o produto é utilizado e ciclo de vida do mesmo. Com esses dados, empresas são capazes de efetuar correções e melhorias no produto com base na própria utilização do mesmo, bem como na influência de fatores externos. O mais importante: produtos smart permitem a fabricantes adaptar suas linhas de produção à

forma com que o usuário utiliza seus itens. Isso cria uma vantagem competitiva completamente nova e desconhecida para alguns grupos empresariais mais tradicionais.

Controle O controle é o próximo passo natural. A partir de softwares e sistemas “embarcados” nos produtos, medições e monitoramentos, empresas podem efetuar modificações e revisões, ou mesmo atualizar produtos já vendidos para versões completamente diferentes. Para setores que sofrem com os chamados “recalls”, como o automotivo, essa possibilidade representa uma virada completa do jogo. Ao invés de convocar milhares de clientes insatisfeitos para realizar modificações e atualizações que geram a própria insatisfação dos mesmos, produtos podem ser modificados automaticamente, com base em informações colhidas e por meio de softwares e sistemas que acompanham o produto.

Otimização O monitoramento e controle de dados permite que novas “versões” de um mesmo produto ou serviço sejam oferecidas com frequência para o consumidor. Embora muitos argumentem que o versioning sempre existiu em qualquer indústria, sua velocidade e dinâmica no mundo redesenhado pela internet e pelos sistemas inteligentes é completamente diferente. Há décadas, o brasileiro acostumou-se à expressão “carro do ano”. A cada ano, mesmo com pequenas modificações, novos modelos dos principais veículos à venda no mercado são colocados no mercado. Claro, essas modificações sempre tiveram origem em

constatações realizadas pelas empresas em sua própria linha de produção, junto a fornecedores e até mesmo clientes. As otimizações ocorriam conforme a demanda apresentava suas necessidades e os processos eram corrigidos e aperfeiçoados. Então, o que mudou? Bem, a tecnologia embarcada hoje criou uma forma completamente diferente de versioning na maioria dos setores empresariais. À medida que utiliza o próprio produto ou serviço, o cliente oferece inteligência e dados ao fabricante ou provedor. Por meio dos mesmos equipamentos e sistemas conectados que coletam e tratam esses dados, modificações podem ser impostas aos produtos finais – sem que haja a necessidade de troca por parte do usuário, como ocorreu por mais de 50 anos na indústria automotiva. Quase todos os setores empresariais migram hoje para o universo das plataformas “as a service”. Ao invés de valores absolutos, setores reorganizam-se de modo a cobrar parcelas recorrentes, licenças ou tarifas periódicas por seus produtos ou serviços. As otimizações não são mais objeto de novos “modelos” que serão apenas futuramente entregues ao mercado – elas hoje fazem parte do próprio serviço, licença ou contrato que o consumidor possui com essas empresas. Claro que alguns setores têm enfrentado uma dificuldade maior de adaptação a essas novas realidades, mas mesmo em segmentos como o imobiliário, que lida com produtos que acompanham seus clientes, literalmente, por toda a vida, sistemas e dispositivos de smart home hoje abrem possibilidade incríveis – e uma real chance de que imóveis, no futuro, sejam apenas mais um serviço, em todos os aspectos. A otimização automatizada e o versioning nas empresas não esbarra apenas nas características setoriais e empresariais, mas inclusive na própria concepção desses produtos na sociedade. No caso dos imóveis, por exemplo, uma metodologia “as a service” em países como o Brasil certamente esbarraria no paradigma do “sonho da casa própria”.

Autonomia Poucas empresas e prestadores de serviços conseguiram, até então, atingir o quarto estágio de desenvolvimento da nova lógica empresarial. O redesign da própria noção de produto leva ao objetivo inevitável de algo que é capaz de se adequar, aprimorar funções e lidar com falhas de forma automatizada, a partir de sua própria programação e da interpretação dos dados que lhe são fornecidos. A era dos produtos ligados à Internet das Coisas trouxe primeiramente essa possibilidade. Claro que, dentro da organização empresarial, equipes trabalham de forma incessante para gerar melhorias nas programações de seus produtos e serviços. Contudo, essas melhorias são como que postas em um “banco”. Sua liberação ou invocação pelo produto em si apenas ocorre à medida que algoritmos inteligentes chegam à conclusão de que tais implementações são necessárias – ou por uma particularidade de cada cliente ou por uma falha detectada em algum processo. O estágio da autonomia leva à customização automática dos produtos. Entretanto, não se trata da customização com a qual estamos acostumados. Não é uma simples personalização ou atendimento de um gosto ou preferência do cliente. Algumas características diferenciam a autonomia da mera customização por segmentação de público: O produto não implementa mudanças, necessariamente, por conta de decisões conscientes dos usuários, mas sim pelos seus hábitos e comportamentos; As modificações não são impostas pelos fabricantes e fornecedores; Algumas implementações e customizações estão disponíveis para todos os usuários, outras não; Seja sob a óptica do produtor ou do consumidor, é praticamente impossível prever os rumos do produto e sua evolução.

Essa última característica é fundamental quando lidamos com o conceito de autonomia sob a égide empresarial. As empresas mais

bem-sucedidas da atualidade, se realmente alcançarem o próximo estágio lógico de sua evolução, não têm como dizer sequer “como” serão seus produtos e serviços daqui alguns anos. O comportamento do usuário será fundamental para a apresentação de todos esses produtos inteligentes no futuro e, embora o Big Data permita às empresas prever o comportamento desse consumidor no curto e médio prazo, atingimos aqui uma das situações do tipo “o ovo ou a galinha”. As mudanças implementadas nos produtos e serviços ocorrem sim, com a autonomia de sistemas de inteligência artificial, com base no comportamento do usuário. Contudo, o próprio comportamento do usuário tende a modificar-se à medida que novas implementações ocorrem. Uma questão, nesse caso, que ainda permanece sem resposta: até que ponto isso permitirá uma nova forma de controle?

CONCLUSÃO Discutir “o futuro” sempre foi uma prática na história da humanidade. Desde as civilizações antigas e mesmo antes da Revolução Agrícola, o homem busca no futuro respostas a respeito de como deve conduzir suas ações no presente. Viemos de uma cultura na qual antigos místicos e adivinhos transformaram-se em ciência – hoje prever é uma questão de negócio. Somos capazes de prever resultados de eleições, comportamentos do consumidor, fenômenos atmosféricos – ainda assim, não parecemos capazes de prever de forma objetiva o impacto de nossas próprias pegadas na sociedade, no meio ambiente e na economia. Há 50 anos, um seleto grupo de pioneiros que incluía cientistas, cinematógrafos, escritores, artistas e jornalistas olhou ao redor e ousou enxergar uma camada de realidade que somente poderia ser vista com o uso da imaginação. Em muito, erraram, em vários casos, aproximaram-se de forma assombrosa e, em umas poucas circunstâncias, foram capazes de prever o futuro de uma maneira tão sobrenatural que até hoje somos obrigados a ver no Youtube dezenas de vídeos com “provas” de viajantes no tempo. Longe dos “xamãs” de outrora, aqueles que previam o futuro transformaram-se primeiro em profetas, depois em visionários e sonhadores, para virar cientistas e estudiosos e chegaram aos dias atuais – como usuários. Sim, temos hoje todo o acesso ao futuro – enxergá-lo não é mais uma questão de gosto por ciências ocultas ou talentos extraordinários, e sim uma questão de acessar. Por outro lado, as coisas parecem caminhar mais rápido. O esforço que nomes como Isaac Asimov, Carl Sagan e Steve Jobs fizeram para enxergar um mundo 30 ou 40 anos à sua frente, na década de 1970, foi o mesmo de Nikola Tesla ou Henry Ford, na virada dos séculos XIX e XX, para vislumbrar o que ocorreria cem

anos à frente. Hoje temos de ser mais objetivos – enxergar 10, 20 anos no futuro. Contudo, as armas das quais dispomos incluem um arsenal com o qual nenhum deles jamais sonhou: informação e dados em tempo real. Se considerarmos tão somente os recursos, podemos nos considerar ricos em relação a esses grandes nomes que estiveram à frente do seu tempo e marcaram história. Hoje temos condições de estarmos todos à frente de nosso tempo, viver em prol do futuro e construir, ainda hoje, realidades que pautarão a vida de nossos filhos. Nada mudou e tudo mudou – continuamos a encontrar motivação naquilo que servirá às gerações futuras, mas com uma única diferença: nossa imaginação, agora passível de concretização, pode fazer com que aquilo que será um dia nosso legado tenha início agora mesmo.

*** Que esperar do ano 2030 ou 2050? Ao encerrar este livro, podemos inverter a lógica das previsões focadas no objeto – é hora de prevermos o amanhã com foco nas pessoas, na sociedade, em um padrão e qualidade de vida justos para todos. Ainda que isso soe um tanto piegas, não foi esse o propósito de todas aqueles que nos antecederam? Em 2030, se nossa imaginação permitir, estaremos tão próximos da ficção de filmes que vimos quando crianças que, ao assistirmos novamente clássicos que fizeram história sentiremos vontade de rir. Sim, era tudo uma antecipação da realidade – mas aqui, no mundo real, há texturas, cores, sentimento. Em 2050, problemas do passado podem ser apenas algo presente nas lições de casa de estudantes. Podemos estar vivendo numa aldeia global, de fato, na qual as idiossincrasias de fronteiras, governos, documentos e permissões apenas farão sentido na cabeça daqueles que ficaram para trás. Em 2050, mudar de cidade ou país será algo tão frugal que parecerá um evento que nem sequer merece ser citado

em um encontro com amigos. Estaremos em Marte, teremos voltado à Lua e sabe mais onde nosso ímpeto permitir. Em 2080, talvez não falemos mais a respeito de máquinas e computadores – sua presença estará em uma condição tal de simbiose com a inteligência humana que distinguir o equipamento do operador será, senão algo sem sentido, uma coisa totalmente despropositada. Lembraremos do petróleo como hoje nos lembramos da lenha que nossos avós usavam para aquecer a casa no inverno. Idas e vindas ao trabalho serão substituídas por contribuições intelectuais dispersas e à distância – entraremos na “melhor idade” como espécie, usufruindo talvez um pouco mais de todo o trabalho que tivemos ao longo de nosso “tempo de serviço” no planeta. Poderemos ter mais artistas, ser mais criativos, pensar e analisar mais, com calma, sem o peso da jornada e das contas a pagar. Sim, ainda haverá ricos e pobres, mas o excesso levará a luxos, e não à garantia da subsistência. Sonho e imaginação parecem compor hoje um cenário híbrido com a futurologia. O avanço da ciência parece nos conduzir a um ponto para o qual este livro todo se orienta: a real democratização da informação e da inovação. Mas digamos que nenhuma dessas previsões se concretize em 30, 50 ou 80 anos a contar de agora. Talvez não tenhamos sequer como saber, por isso podemos encerrar com a receita “mágica” que muitos buscam em livros e tratados: um método para enxergar o futuro, simples e definitivo, quer estejamos falando de 10, 20 ou 100 anos à frente:

Basta que estejamos dispostos a enxergar hoje a solução smart que temos para o problema do dia de amanhã. Por mais que acreditemos no contrário, a resposta sempre esteve bem diante dos nossos olhos.

NOTAS [1] WHAT VUCA really means for you? Harvard Business Review, jan. fev de 2014 [2] MARKMAN, Art. Smart Thinking: How to Think Big, Innovate and Outperform your Rivals. [3] 2015 Urban Mobility Scorecard. Texas A&M Transpositor Institute; INRIX, ago. 2015. [4] How Stupid Things Become Smart Together. .

Fonte:

[5] Fonte: . [6] Sistema Ethereum – que gere o mercado da criptomoeda Ether. [7] FANG, Shifeng; XU, Lida; ZHU, Yunqiang; LIU, Yongqiang; LIU, Zhihui; PEI, Huan; YAN, Jianwu; ZHANG, Huifang. An integrated information system for snowmelt flood early-warning based on internet of things. Information Systems Frontiers, v. 17, ed. 2, p. 321335, abr. 2015. [8] Relatórios e análises da Gartner. .

Fonte:

[9] ASIMOV, Isaac. Nove Amanhãs, 1959. [10] MAGEE, Charlie. The Age of Imagination Coming Soon to a Civilization Near You, 1993. [11] DAVENPORT, Thomas H. Analytics 3.0. Harvard Business Review, dez. 2013. [12] AZUMA, Ronald T. A Survey of Augmented Reality. Presence: Teleoperators and Virtual Environments, v. 6, n. 4, p. 355-385, ago. 1997.

[13] Stefano Baldassi, Senior Director na Meta Co. Part 3: Neuroscience & AR Design - Vision First: From Features to Action. Meta, 16 set. 2016. [14] JONASSEN, David H. Thinking Technology: Toward a Constructivist Design Model. Educational Technology, v. 34, n. 4, p. 34-37, 1994. [15] WHITWORTH, Brian. The Physical World as a Virtual Reality. Albany: Massey University, dez. 2007. [16] KISHINO, Fumio; MILGRAM, Paul. A Taxonomy of Mixed Reality Visual Displays. IEICE transactions on Information and Systems, v. E77-D, n. 12, p. 1321-1329, 1994. [17] TAMURA, Hideyuki; YAMAMOTO, Hiroyuki; KATAYAMA, Akihiro. Mixed reality: future dreams seen at the border between real and virtual worlds. IEEE Computer Graphics and Applications, v. 21, n. 6, nov./dez. 2001. [18] GOOD, Irving John. Speculations Concerning the First Ultraintelligent Machine. Advances in Computers, v. 6, 1965. [19] SMITH, Adam. A Riqueza das Nações, 1776. [20] Freelancing in America, 2017. Publicado por Upwork e Freelancers Union. [21] Professor David De Roure, Universidade de Oxford. Internet of Things: Opportunities and Threats. Londres: Royal Society, 2017. [22] ETLINGER, Susan; GROOPMAN, Jessica. The Trust Imperative: A Framework for Ethical Data Use. Altimeter Group, jun. 2015. [23] EUROPEAN UNION. GDPR - General Data Protection Regulation. art. 25. [24] CAVOUKIAN, Ann. Privacy by Design: The 7 Foundational Principles. Information and Privacy Commissioner of Ontario, ago. 2009. [25] MAGNO, Alexandre; LINHARES, Yoris. Learning 3.0: Como os profissionais criativos aprendem, 2017.

[26] PORTER, Michael E.; HEPPELMANN, James E. How Smart, Connected Products Are Transforming Competition. Harvard Business Review, nov. 2014.

www.pucpr.br/pucpress