A pandemia do novo coronavírus expôs diversos problemas sociais e estruturais do país, gerando, também, lições importantes. Um dos aprendizados refere-se a algo ainda pouco explorado por nossos governantes: a importância de usar dados confiáveis para a tomada de decisão, principalmente quando nos referimos à saúde pública.
Desde o início da pandemia, presenciamos situações de tomada de decisão que foram baseadas em dados não confiáveis ou insuficientes, resultando em ações de alto impacto que precisaram ser revistas pelas autoridades.
Um exemplo marcante foi a constatação de possível fraude nos dados fornecidos pela empresa Surgisphere [1,2] para a revista Lancet, indicando a ineficácia do uso de alguns medicamentos para o tratamento da Covid-19. O artigo publicado pelo editorial serviu de base para que a Organização Mundial de Saúde (OMS) recomendasse a interrupção dos testes com esses medicamentos.
E por que ocorrem situações como esta? Escassez de fontes confiáveis e baixa qualidade de dados podem ser os motivos mais comuns.
Não é simples obter, filtrar, tornar anônimos os dados pessoais para evitar problemas de privacidade, processar e preparar dados para análises complexas. Um cientista de dados pode levar até 90% [3] do tempo no trabalho de obtenção, filtragem e tratamento dos dados antes de estarem aptos para o processamento e análises.
Uma etapa importante que costuma ser feita antes das análises dos dados é o processo de estruturação da base de dados de acordo com a natureza do problema, pois a escolha das técnicas e métodos depende do tipo do problema que influencia na escolha dos algoritmos e ferramentas de análises [4].
Quando temos uma base de dados gigantesca, que não pode ser armazenada em planilhas ou na maioria das ferramentas de gerenciamento de banco de dados tradicionais, dizemos que é um “Big Data”. O Facebook é um exemplo de aplicação que faz uso de Big Data, com capacidade para gerar mais de 500TB de dados por dia [5]. Isso é muita informação!
Na Pandemia da Covid-19, cujo comportamento da doença pode mudar de acordo com a região, e pode ser influenciada por diversos fatores, estamos diante de um “Big Data Problem”[3], mas não temos o Big Data. O que significa isso?
Objetivamente, significa que temos um problema ocasionado pela variação de diversos dados, mas não temos uma base de dados estruturada que permita a análise dessa infinidade de informações.
É fato que a Covid-19 evoluiu muito rapidamente, surpreendendo a todos, entretanto, se os demais dados de saúde das esferas municipais, estaduais e federais já estivessem estruturados em uma plataforma de Big Data, seria relativamente mais rápido para incluir novos dados sobre a Covid-19, que poderiam ser incorporados no apoio à tomada de decisão pelos agentes de saúde de forma mais assertiva e confiável. Para termos esse Big Data da saúde, é preciso ter um grande volume de dados com uma grande variedade e com confiabilidade, incluindo um rápido acesso aos dados.
Em 2016, foi lançado o [6] PCDaS, uma iniciativa do Instituto de Comunicação e Informação Científica e Tecnológica em Saúde (Icict/Fiocruz) e de diversos outros órgãos, como o SUS, IBGE, INPE, dentre outros, cujo objetivo é disponibilizar um Big Data da Saúde, por meio de uma plataforma pública e gratuita, que permite a utilização de ferramentas livres para o armazenamento, gestão, análise e disseminação de dados da saúde para pesquisadores, instituições de ensino e pesquisa, bem como gestores governamentais.
Esse é um tipo de trabalho altamente significativo, que deveria ser apoiado e incentivado por todas as esferas sociais, devido à sua importância e complexidade de tratar, adaptar, padronizar e estruturar dados de diferentes instituições.
Se já tivéssemos todos esses dados de diferentes órgãos governamentais estruturados em um Big Data da saúde, com atualização em tempo real e disponíveis para o uso de pesquisadores, poderíamos salvar muitas vidas, permitindo o desenvolvimento de pesquisas desde o início dos casos da Covid-19 no Brasil, com base em dados confiáveis. Quanto maior o volume e a diversidade dos dados, maiores são as possibilidades de geração de informação relevante e específica.
Para solucionar este e tantos outros problemas do Brasil, a Transformação Digital precisa ser considerada como prioridade. Somente assim, recursos, decisões e projetos serão melhores executados, impulsionando o país ao futuro.
Artigo produzido por Sérgio Teixeira, Coordenador da especialização em Transformação Digital da Universidade Vila Velha.
Você quer ser um protagonista da Transformação Digital?
Acesse: https://bit.ly/3hnh2VD
#transformacaodigital #BigData #DataScience #Covid-19
Fontes:
[3] – DOUG, R. Data Science: Create Teams That Ask the Right Questions and Deliver Real Value. Berkeley, CA, USA: Apress, 2016.
[4] – PROVOST, F.; FAWCETT, T. Data Science para Negócios, 2016.
[5] – CANALTECH. Números curiosos do Facebook: rede social gera mais de 18 500TB de dados por dia. Disponível em: <https://canaltech.com.br/redessociais/Facebook-gera-mais-500TB-de-dados-diariamente/#:~:text=Já deu para imaginar que,dados a cada 24 horas.&text=O disco do Facebook Hadoop,muuuuuuuuuita capacidade de armazenamento>. Acesso em: 8 jul. 2020.
[6] – ICICT/FIOCRUZ. PCDAS – Plataforma de Ciência de Dados aplicada à Saúde. Disponível em: <https://bigdata.icict.fiocruz.br/>. Acesso em: 26 jul. 2020.