Elaborado por Materia para OpenMind Recomendado por Materia
4
Inicio Thick Data y Big Data
18 noviembre 2021

Thick Data y Big Data

Tiempo estimado de lectura Tiempo 4 de lectura

Uno de los retos a los que se enfrentan las empresas en el mundo post COVID-19 es adaptarse a los nuevos hábitos de los consumidores, que nunca volverán a ser los mismos que antes de la pandemia. Al auge de la compra de productos y servicios online se le suma el auge del trabajo en remoto. Conforme las empresas empiezan a navegar en el mundo post-COVID-19 a medida que las economías reabren, las tecnologías de analítica de datos van a ir cobrando importancia por su utilidad como herramienta de adaptación a las nuevas tendencias. Las herramientas de análisis de datos van a ser especialmente útiles a la hora de detectar nuevos patrones de compra y ofrecer experiencias de cliente más personalizadas, además de una mejor comprensión del nuevo comportamiento de los consumidores.

Sin embargo, muchas empresas siguen teniendo problemas para finalizar sus proyectos big data con éxito. La adopción del big data ha aumentado drásticamente en todos los sectores. El gasto ha incrementado y la gran mayoría de las empresas que utiliza big data espera rentabilizar sus inversiones. Sin embargo, uno de los puntos débiles del Big Data para estas empresas es la opacidad en términos procesos e información. Modelar segmentos de clientes con precisión puede ser imposible para aquellas empresas que no sean capaces de entender por qué, cómo y cuándo sus clientes toman sus decisiones de compra, por ejemplo.

BBVA-OpenMind-Keith Darlington-AI Online Trading-rupixen
Las herramientas de análisis de datos van a ser especialmente útiles a la hora de detectar nuevos patrones de compra y ofrecer una experiencia de cliente más personalizada, además de una mejor comprensión de los nuevos patrones de comportamiento de los consumidores

Para resolver este problema, algunas empresas se ven obligadas a recurrir a una alternativa al big data, el llamado Thick Data. Pero, ¿en qué se diferencian el Big Data y el Thick Data?

El Big Data se centra en el procesamiento de grandes volúmenes de datos complejos y no estructurados, que se caracterizan por las 3 Vs: Volumen, el big data exige procesar inmensas cantidades de datos no estructurados de baja densidad. Estos pueden ser datos de valor desconocido, como la actividad de los usuarios de Facebook, los feeds de datos de Twitter, los flujos de clics en una página web, aplicación móvil, o en equipos dotados de sensores. Para algunas organizaciones, esto puede suponer decenas de terabytes de datos. Para otras, cientos de petabytes. Velocidad: Es la velocidad a la que se reciben los datos y se actúa sobre ellos. La variedad se refiere a los diferentes tipos de datos disponibles. Los tipos de datos no estructurados y semiestructurados, como texto, audio y video, requieren de un procesamiento adicional previo para extraer significado y metadatos soporte.

El término Thick Data hace referencia a un complejo abanico de estrategias de investigación primaria y secundaria, incluidas encuestas, cuestionarios, grupos focales, entrevistas, revistas, videos, etc. Es el resultado de la colaboración entre científicos de datos y antropólogos para dar sentido a grandes cantidades de datos. Juntos, analizan series de datos para extraer información cualitativa como conocimientos, preferencias, motivaciones y razones de los comportamientos. En esencia, el término Thick Data hace referencia a series de datos cualitativos (observaciones, sentimientos, reacciones) que ofrecen información sobre la vida emocional cotidiana de los consumidores. El Thick Data se centra en identificar emociones, historias y modelos en el mundo en el que viven las personas, por lo que sus resultados pueden ser difíciles de cuantificar.

BBVA-OpenMind-Banafa-Big tada vs Thick data-espanol

Comparación entre Big Data y Thick Data

  • El Big Data es cuantitativo, mientras que el Thick Data es cualiativo.
  • El Big Data genera tanta información que necesita de algo más para cerrar y/o revelar los vacíos de conocimiento. El Thick Data descubre el significado tras las visualizaciones y los análisis del Big Data.
  • El Big Data revela información a partir de un determinado rango de puntos de datos, mientras que el Thick Data revela el contexto social y las conexiones entre los puntos de datos.
  • El Big Data ofrece números; el Thick Data revela historias.
  • El Big data depende de las tecnologías de IA y aprendizaje de máquina; mientras que el Thick Data depende del aprendizaje humano.
BBVA-OpenMind-Libro 2018-Perplejidad-Qureshi-facebook-A man walks past a wall sized logo created from pictures of Facebook users in the company's Data Center in Swedish Lapland. Facebook continues to enjoy remarkable success and is expanding into new areas such as artificial intelligence-Advanced Tech but Growth Slow and Unequal
Si las grandes tecnológicas de Silicon Valley aspiran realmente a “entender el mundo”, deben capturar tanto sus cantidades (big data) como sus cualidades (thick data)

Si las grandes tecnológicas de Silicon Valley aspiran realmente a “entender el mundo”, deben capturar tanto sus cantidades (big data) como sus cualidades (thick data) Por desgracia, esta última dimensión exige dejar de ver el mundo exclusivamente a través de Google Glass (o en el caso de Facebook, la realidad virtual) y dejar atrás los ordenadores para experimentar el mundo de primera mano. Hay dos factores clave para ello:

  • Para entender a las personas, hay que entender su contexto. La mayor parte del “mundo” es conocimiento de fondo

Más allá de tratar de entendernos atendiendo exclusivamente a lo que hacemos (como hace el big data), el thick data busca entender cómo nos relacionamos con los diferentes mundos que habitamos.

Sólo entendiendo nuestros mundos se puede entender realmente “el mundo” en su totalidad, que es a lo que aspiran empresas como Google y Facebook. “Entender el mundo”, exige capturar tanto aspectos cuantitativos (big data) como cualitativos (thick data)

De hecho, las empresas que confían demasiado en los números, gráficos y falsas creencias (factoides) del Big Data corren el riesgo de aislarse de la riqueza y la realidad cualitativa de la vida cotidiana de sus clientes, de perder la capacidad de imaginar e intuir hacia dónde puede estar evolucionando el mundo y sus propios negocios. Al externalizar nuestros procesos intelectuales al Big Data, nuestra capacidad de darle sentido al mundo mediante una observación cuidadosa comienza a erosionarse, de la misma manera en que al utilizar un GPS para orientarnos en una ciudad que no conocemos se nos escapan sensaciones y detalles de la misma.

Las empresas y los ejecutivos de éxito trabajan para entender el contexto emocional, incluso visceral, de las personas en el momento en el que encuentran su producto o servicio, y son capaces de adaptarse a las circunstancias según van cambiando. También son capaces de utilizar el llamado Thick Data, que incorpora el elemento humano ausente en el Big Data.

Existe una tecnología prometedora que puede permitirnos aprovechar lo mejor de ambos mundos (Big Data y Thick Data). Se trata de la computación afectiva.

La computación afectiva es el estudio y desarrollo de sistemas y dispositivos capaces de reconocer, interpretar, procesar y simular los afectos humanos. Se trata de un campo interdisciplinario en el que se dan la mano la informática, la psicología y las ciencias cognitivas. Aunque los orígenes de la disciplina se remontan a las primeras investigaciones filosóficas sobre la emoción (“afecto” es, básicamente, sinónimo de “emoción”), el origen de esta rama de la ciencia informática, la más moderna, se remonta a la publicación en 1995 del trabajo de Rosalind Picard sobre Computación afectiva. Uno de los objetivos de este estudio era la capacidad de simular empatía. Ello exigiría a los equipos informáticos interpretar el estado emocional de los humanos y adaptar su comportamiento a ellos, ofreciendo respuestas adecuada a esas emociones.

El uso de algoritmos de computación afectiva en la recopilación y procesamiento de datos hará que los datos sean más humanos y aprovechará las dos caras de los datos: La cuantitativa y la cualitativa.

Ahmed Banafa, autor de los libros:

Secure and Smart Internet of Things (IoT) Using Blockchain and AI

Blockchain Technology and Applications

Referencias

https://www.linkedin.com/pulse/8-key-tech-trends-post-covid-19-world-ahmed-banafa/

https://www.cognizant.com/us/en/glossary/thick-data

http://ethnographymatters.net/2013/05/13/big-data-needs-thick-data/

http://www.wired.com/2014/04/your-big-data-is-worthless-if-you-dont-bring-it-into-the-real-world/

http://www.big-dataforum.com/238/big-data-how-about-%E2%80%9Cthick-data%E2%80%9D-%E2%80%94-or-did-we-just-create-another-haystack

http://www.wired.com/2013/03/clive-thompson-2104/

 

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada