“Na Amazon ou no e-commerce Alibaba, não se tem inteligência artificial, mas sim inteligência humana, que cria as tecnologias para automatizar processos”. Esta é a avaliação de Ricardo Cappra, como mostra esta entrevista exclusiva do Habitability. Segundo ele, a premissa se encaixa em todos os ambientes de mercado, inclusive nas cidades, “que só se tornam inteligentes quando há processos e regras mais inteligentes”.

Fundador e líder do Cappra Institute, que tem sua base principal nos Estados Unidos e laboratórios ao redor do mundo, o especialista lidera um time global e interdisciplinar, que pesquisa o impacto dos dados nos negócios e na sociedade, propondo metodologias para aprimorar a capacidade analítica sobre eles. 

Para Cappra, é preciso democratizar cada vez mais a análise de dados, de modo que cada pessoa, empresa ou administração pública possa aproveitar as informações analíticas para aprimorar a qualidade humana e do seu habitar. Acompanhe os principais trechos da entrevista:

Qual é o caminho para tornar as cidades mais inteligentes?

O caminho de cidades inteligentes depende fundamentalmente de regras mais inteligentes. Só existe cidade inteligente, baseada em inteligência artificial e outras tecnologias, se ela é alimentada por regras pré-determinadamente inteligentes. Ou seja, não existe cidade inteligente sem governantes que criam regras mais inteligentes. Mais do que isso, é preciso que a sociedade contribua na construção dessa inteligência também e é por isso que eu acredito na maior democratização da análise de dados.

Atualmente, vejo que as tecnologias de captação, armazenamento e transmissão de dados evoluem muito rapidamente, mas as regras e as análises acerca disso ainda são limitadas a pouquíssimas pessoas. Nós, como sociedade, precisamos evoluir e participar mais disso. 

Na Europa está ocorrendo um avanço importante, com a criação de premissas para que as tecnologias de inteligência artificial sejam atribuídas a seus donos. Isso permite a responsabilização de quem as criou, no caso da tecnologia incorrer em algum erro ou delito, e estabelece um marco importante de que a inteligência é humana. Aqui no Brasil, caminharemos nesse sentido em breve também.

Você lidera um time de  cientistas de dados e há pouco tempo disse em uma entrevista que esta era uma profissão pouco disseminada. O que de fato, faz um cientista de dados, e como utiliza esse trabalho para chegar a conclusões como essa da maior democratização da análise de dados?

Tivemos uma aceleração grande da ciência de dados nos últimos tempos e explico que esta é uma área composta por três  disciplinas: exatas, tecnologia e uma área de aplicação, como negócios ou  cidades inteligentes, por exemplo. Meu trabalho com dados começou  em 1997, quando fiz uma  formação técnica para processamento de dados. Na época, eu aprendi a preparar um banco de dados, analisar e construir informações dali, para então automatizar determinados processos. Em 1998 eu criei a minha empresa e desde então não faço nada diferente daquilo  (risos). Hoje atendemos grandes instituições ao redor do mundo, como o governo dos Estados Unidos, o Banco Mundial e várias empresas nacionais e multinacionais. Mas, no fim do dia, a ciência de dados tem o papel de transformar dados brutos em informações qualificadas, organizadas e visuais, para que as lideranças tomem melhores decisões.

Há camadas técnicas, de categorização de dados, por exemplo, nessa operação?

Com certeza, e este é um ponto muito importante, pois grande parte do tempo gasto na ciência de dados é com limpeza e qualificação dos dados. Estimo que atualmente 70% do esforço seja esse, ficando o restante para a análise propriamente dita. Isso ocorre porque os dados não foram preparados para serem usados da forma como precisamos atualmente. Mas avalio como um processo natural, dada a própria evolução tecnológica, o jeito que os dados foram armazenados, etc. 

Além disso, há o que chamamos de intoxication, que diz respeito a um volume de dados tão grande que os humanos não são  capazes de processar.O IDC projetou há um tempo atrás que chegaríamos a 2025 com a geração de 160 Zettabytes. Trata-se de uma nova unidade de medida, que só pode ser tratada através da computação quântica. Devemos chegar a este volume já neste ano de 2021,ou seja, estamos quatro anos antecipados no volume de dados previsto, em razão de várias coisas, inclusive da pandemia, mas não estamos preparados para analisá-los da forma adequada

Esse aumento na geração de dados causa problemas físicos, de infraestrutura de transmissão e armazenamento, por exemplo, a ponto de interferir nos espaços urbanos, no meio ambiente e em outras esferas do bem-estar humano?

Não vejo um risco de colapso físico, até porque grandes estruturas são instaladas em espaços não utilizados pelos seres humanos. O jornalista Andrew Blum mostra bem isso no livro Tubos – O mundo físico da internet, publicado na década passada. O problema que vejo é energético.

Hoje, para processar esse volume de dados, demanda-se mais energia. Tivemos recentemente um lançamento tecnológico de novos processadores que exemplifica bem isso: são modelos com sete vezes mais capacidade de processamento de dados em relação ao que conhecemos até agora. O problema é que o consumo energético é igualmente maior. Ou seja, não evoluímos quanto ao  aprimoramento do gasto energético na mesma velocidade da capacidade de processamento.

Pode falar mais a respeito, considerando que o relatório do IPCC mostra que os setores de TI e Comunicações respondem por mais de 3% das emissões de gases de efeito estufa do planeta?

Pois é, e esse é um problema sério, difícil de equalizar, pois a forma de reduzir o consumo energético na gestão de dados é aumentando os trabalhos repetitivos para os humanos. Ao contrário, quando se criam códigos de automação de processamentos de dados, se transferem os esforços dos humanos para esforços de máquinas, e as máquinas consomem energia. Então perceba que essa equação vai além da questão apenas do gasto energético, pois diz respeito também ao quanto isso nos prejudica em termos de sustentabilidade social, de economia das famílias e do emprego.

Para os próximos tempos, vejo que a ciência de dados tem o desafio de aprimorar o jeito e a forma que se gasta energia para processar dados. Temos de aperfeiçoar o modelo, a forma como os dados são tratados para trabalhar  micro lotes de dados, por exemplo. Já temos alguma evolução disso em novas modelagens de machine learning, que antes consumiam todo o banco de dados para criação de um modelo, e hoje utilizam apenas uma parte dele, gerando economia de energia. Hoje há um pré-selecionamento em pacotes com a mesma efetividade, o que reduz o volume de transmissão e de processamento.

Você falou acima da democracia analítica, no qual mais pessoas teriam o poder de processar dados. Isso pode colaborar para essa problemática? Você pode explicar esse conceito?

Colabora e é primordial para o avanço da ciência de dados. Com mais pessoas sendo capazes de analisar dados, ganhamos capacidade analítica para resolver problemas da sociedade e até questões individuais. Isso vai desde um comprador de apartamento – que pode, ao mesmo tempo em que está visitando uma unidade, simular o deslocamento dali até o seu ponto de trabalho, ou ver a disponibilidade de restaurantes, farmácias, academias na região – até a gestão de cidades e de empresas. Em certa medida isso já acontece e é natural que esteja mais avançado nos centros urbanos, mas vai ser amplificado conforme os indivíduos usarem melhor os recursos analíticos disponíveis.

Essa evolução analítica está baseada em três pilares. O primeiro é a democracia digital propriamente dita, e diz respeito ao acesso tecnológico e à educação digital para cada vez mais pessoas. Outro aspecto são os  recursos analíticos, o que significa disponibilizar dados para que as cidades, as empresas e as próprias pessoas possam utilizá-los e analisá-los. O terceiro pilar é sobre  o pensamento analítico, onde devemos evoluir mais, inclusive com o advento do 5G e novas tecnologias para análises que já podem ser realizadas em tempo real.

Há formas práticas de promover esse avanço?

Sim, existem muitas maneiras. Um exemplo está nas competições de incentivo às práticas analíticas, que chamamos de  datathons (hackathons de dados). A Campus Party faz muito isso, inclusive com a nossa participação. Lembro de um caso em que um grupo de estudantes criou solução para distribuir melhor os leitos de UTI dos hospitais. Isso bem antes da pandemia. A prefeitura incorporou a tecnologia e ancorou a criação de uma startup para ajudar na informação da sociedade sobre a ocupação de leitos. Gosto muito desse caso porque ele demonstra a capacidade de integração da administração pública com as soluções baseadas em dados.

Em que nível você avalia que está esse tipo de colaboração entre público e privado?

Podemos evoluir bastante e trago o setor de moradias, de construção habitacional como exemplo. Os incorporadores, no geral, recebem pouquíssima informação para o empreendimento. Geralmente ele levanta dados do terreno, que é de sua responsabilidade, mas não consegue integrar com dados da cidade, que são essenciais para que ele adeque o empreendimento às questões urbanas e de habitabilidade da região. Afinal, os incorporadores têm a missão de desenvolver e aprimorar construções que se conectem melhor com as necessidades da população. E trato como população não somente o comprador do imóvel, que é o público-alvo do negócio, mas sim com todo o entorno, com quem vai conviver com a obra e com o novo empreendimento depois.

Então essa colaboração entre cidade e empresa deveria ser algo orientada por dados e também  democrática quanto à capacidade analítica dos indivíduos. Claro, sempre respeitando a transparência e privacidade dos usuários.