Diferencia entre dato, información y conocimiento / Riesgos éticos asociados

Diferencia entre dato, información y conocimiento / Riesgos éticos asociados

de BOLIVAR OSWALDO ORTIZ VALENZUELA -
Número de respuestas: 1

·         Diferencia entre dato, información y conocimiento

 

En un entorno digital y automatizado, distinguir entre dato, información y conocimiento es esencial para comprender cómo las organizaciones toman decisiones basadas en analítica. Los datos representan  registros crudos sin contexto, es decir, hechos aislados que por sí mismos no permiten extraer conclusiones. Cuando estos datos se organizan y relacionan, adquieren significado y se transforman en información, permitiendo interpretar qué está ocurriendo. Finalmente, el conocimiento surge cuando la información se analiza y combina con experiencia para responder al “cómo” y “por qué”, orientando acciones estratégicas. Esta jerarquía conceptual, discutida ampliamente en la literatura DIKW, sirve como guía para entender cómo se construyen decisiones en sistemas automatizados (Ackoff, 1989).

 

En una empresa de servicios financieros que asegura créditos automotrices, los datos incluyen historiales de pago, características de vehículos y registros del buró. Al procesarlos, la organización genera información como la probabilidad de incumplimiento (PD) o la pérdida esperada (LGD). Finalmente, al interpretar esta información mediante modelos de riesgo, la empresa construye conocimiento operacional, el cual utiliza para decidir precios de garantía, estrategias de cobranza y políticas de recuperación de vehículos.

 

·         Riesgos éticos asociados a la gestión de grandes volúmenes de datos

 

En cuanto a los riesgos éticos del Big Data, destacan dos especialmente relevantes. El primero es el riesgo de violación de privacidad, ya que la recopilación masiva de datos puede derivar en prácticas de vigilancia excesiva o usos no autorizados de información personal. La literatura enfatiza que la datificación puede erosionar la autonomía del individuo si no existen límites claros de uso y consentimiento (Da Bormida, 2022). En la empresa financiera, esto podría manifestarse si los datos telemáticos del vehículo o del comportamiento financiero se utilizan para finalidades no declaradas.

 

El segundo riesgo es el sesgo algorítmico, que puede surgir cuando los modelos se entrenan con datos históricos que reflejan desigualdades. Esto puede traducirse en decisiones injustas, como sobreestimar el riesgo de ciertos segmentos y afectar el acceso a garantías o condiciones crediticias.

 

Para mitigar estos riesgos, se recomiendan prácticas como auditorías algorítmicas, transparencia en criterios de decisión, anonimización de datos y aplicación estricta de marcos regulatorios como GDPR o CCPA.

 

Referencias:

-          Ackoff, R. (1989). From data to wisdom. Journal of Applied Systems Analysis.

-          Da Bormida, M. (2022). The Big Data World: Benefits, Threats and Ethical Challenges. Emerald Publishing.


En respuesta a BOLIVAR OSWALDO ORTIZ VALENZUELA

Re: Diferencia entre dato, información y conocimiento / Riesgos éticos asociados

de LUIS RONALDO TUTILLO QUIMBIULCO -
Excelente aporte. Me parece muy acertada tu explicación sobre la jerarquía DIKW aplicada al sector financiero; el ejemplo de la probabilidad de incumplimiento ilustra perfectamente cómo el dato aislado no tiene valor sin el procesamiento adecuado.
Para complementar tu idea, considero importante mencionar que esta transición entre información y conocimiento se materializa a través del proceso KDD. Como vimos en el material de estudio, etapas como el preprocesamiento y la minería de datos son las que permiten que esos modelos de riesgo que mencionas no solo sean informativos, sino que revelen patrones no evidentes que se convierten en conocimiento estratégico. Sin una limpieza adecuada de esos historiales de pago, el conocimiento resultante podría estar viciado, lo que nos conecta directamente con el riesgo de sesgo que mencionaste.

También coincido plenamente contigo en que el sesgo algorítmico es uno de los mayores desafíos actuales, especialmente en el sector de créditos automotrices donde una decisión automatizada impacta directamente en la vida del usuario.
Me gustaría aportar un complemento conceptual a tus propuestas de mitigación: la Gobernanza de Datos. Más allá de las auditorías algorítmicas, establecer un marco de gobernanza sólido asegura que la materia prima sea de alta calidad y ética desde su origen. Si los datos históricos ya traen sesgos de exclusión financiera, incluso el algoritmo más transparente producirá resultados injustos.

Es interesante cómo aplicas esto a una financiera, pues en el marco de la Cuarta Revolución Industrial, esta distinción es lo que permite pasar de una gestión tradicional a una organización inteligente.
Un ejemplo alternativo que refuerza tu punto sobre la privacidad sería el uso de Internet de las Cosas en los vehículos asegurados. Si bien estos datos permiten generar conocimiento para prevenir siniestros, abren una brecha ética enorme sobre la vigilancia del comportamiento del conductor en tiempo real. Esto refuerza tu mención sobre la pérdida de autonomía del individuo.
Me parece que la transparencia en los criterios de decisión que propones es la única vía para mantener la confianza del cliente en estos sistemas automatizados.