49
VENTAJAS DE LA UTILIZACIÓN DE BIG DATA EN EL PROCESO AUDITOR, 2018
ADVANTAGES OF USING BIG DATA IN THE AUDIT PROCESS, 2018
Jonathan Nabor López Espinosa *
Resumen
La presente investigación explica las condiciones tecnológicas que conducen al desarrollo de nuevas herramientas para el análisis de datos, que dan origen al concepto de big data .
Se tratan las tendencias actuales para la administración de datos, poniendo énfasis en la importancia del preprocesamiento de datos en función de las siguientes etapas de la búsqueda de conocimiento, para luego efectuar una breve reseña en relación con la minería de datos y las herramientas que propone para la extracción de conocimiento a partir de conjuntos de datos.
A continuación, se estudian metodologías que las entidades de fiscalización superiores (EFS) deben tener en cuenta para la implementación de la tecnología big data, distinguiéndose entre la gestión de datos y la gestión de información para determinar cuáles procedimientos mínimos habría que considerar.
Luego se hace una propuesta de aplicación práctica del big data a través del control administrativo de obras públicas, aprovechando el trámite de toma de razón que realiza la Contraloría General de la República de Chile (CGR). La idea es conseguir datos relevantes de los proyectos de construcción para generar una base de datos que agrupe información respecto de proyectos, servicios públicos y empresas constructoras, sirviendo además de insumo para futuras auditorías y la gestión interna de la entidad de fiscalización superior.
Finalmente se analizan las ventajas, limitaciones y riesgos de la implementación del big data en las entidades de fiscalización superiores para los procesos de auditoría.
Palabras clave: big data – proceso auditor – entidades de fiscalización superiores.
* Constructor civil de la Pontificia Universidad Católica de Chile.
50
Jonathan Nabor López Espinosa
Abstract
This research explains the technological conditions that drive to the development of new tools for data analysis, which give rise to the concept of big data.
Current trends for data management are discussed, emphasizing the importance of data preprocessing according to the next stages in the pursuit of knowledge, to make a brief review later, related to data mining and the proposed tools for the extraction of knowledge from data clusters.
Next, we study those methodologies that supreme audit institutions (SAI) must consider for implementing big data technology, distinguishing between data management and information management to determine which minimum procedures should be pondered over.
Then we make a proposal of practical application of big data through the administrative control of public works, taking advantage of the process of legality review performed by the Comptroller General of the Republic of Chile (CGR). The purpose is to obtain relevant data from the construction projects to generate a database that gathers information regarding projects, public services and construction companies, serving as input for future audits and the internal management of the supreme audit institution.
Finally, we analyze the advantages, limitations and risks of implementing big data in the supreme audit institutions for the audit processes.
Keywords: big data – audit process – supreme audit institutions.
Ventajas de la utilización de big data en el proceso auditor, 2018
Introducción
Es imposible no darse cuenta del impacto que el desarrollo tecnológico tiene en nuestras vidas. Cada nueva generación de computadoras y teléfonos inteligentes que sale al mercado nos demuestra que estos equipos pueden ser más rápidos y poderosos, pudiendo realizar muchas más tareas simultáneamente sin quedarse pegados como ocurría años atrás.
Además, debido al aumento considerable de la población con acceso a internet (CEPAL, 2017) —gracias al desarrollo de nuevas redes que incrementan la cobertura geográfica y la velocidad de transferencia, y a la reducción del precio de los planes de internet— ahora es posible ponerla al alcance de quien cuente con un smartphone.
Entonces, como partes de una ecuación, si contamos con más individuos provistos de equipos con mejor tecnología y con acceso a internet, tendremos como resultado un mayor número de interacciones no solo entre personas, sino también entre estas y las plataformas tecnológicas, siendo las redes sociales como Facebook o Instagram, las páginas web como YouTube y Google, y también las aplicaciones propias de los teléfonos como Spotify, Uber y Whatsapp, las más representativas.
Ahora bien, en términos informáticos cada una de estas interacciones es registrada, convirtiéndose así en datos, los cuales están siendo almacenados en grandes volúmenes por las empresas que administran estas plataformas tecnológicas, dado que han descubierto que, a través del análisis de estos datos, es posible conocer mejor a los usuarios mediante la creación de perfiles para atender de mejor forma sus necesidades.
Lo expuesto es una simple aproximación a la manera en que está funcionando el mundo digital en el cual estamos inmersos. Nuestra huella digital puede abarcar muchos y diversos planos, como el comercio, los bancos, servicios médicos y hasta lo que seleccionamos para ver en Netflix. En efecto, hay que saber que todo esto está siendo registrado y guardado, ya que, a diferencia de décadas pasadas, el almacenamiento de datos es cada vez es más barato y seguro, permitiendo a las empresas generar grandes bases de datos con la información de sus usuarios.
En ese mismo sentido, el Estado de Chile ha propendido a la modernización de los servicios públicos (CEP, 2017), incorporando las nuevas tecnologías y aprovechando el bajo costo que tiene hoy en día el almacenamiento de información. Cada uno de ellos es capaz de generar grandes volúmenes de datos según las funciones que debe cumplir, lo que debería convertirse en una fuente de información adicional para las entidades de fiscalización superiores.
51
52
Jonathan Nabor López Espinosa
Sin embargo, enfrentarse a analizar estos grandes volúmenes de datos, de forma eficiente y que a la vez se traduzca en la obtención de beneficios tangibles para la institución, representa un nuevo gran desafío para las entidades de fiscalización superiores. Por esto, es necesario investigar acerca de las herramientas que se desarrollan sobre el tema del big data, las cuales utilizan principalmente diferentes campos de las matemáticas y la ingeniería, como la estadística, la investigación de operaciones, la informática e incluso la inteligencia artificial.
En este estudio se va a definir el concepto del big data, el cual busca resumir en gran medida todas estas nuevas técnicas que posibilitan la gestión y el análisis de grandes volúmenes de datos con el propósito de convertirlos en información relevante. Particularmente, se busca proponer una aplicación concreta que permita establecer un control eficiente de las obras públicas, una de las líneas de inversión más importante del Estado, dada la magnitud e importancia de algunos proyectos.
Objetivos de la investigación
El principal objetivo de esta investigación es describir el concepto de big data y establecer formas en que este conocimiento puede ser utilizado a favor de la labor de fiscalización y control de las entidades de fiscalización superiores.
Además, se buscará definir conceptos asociados al big data que son necesarios para su entendimiento, describiendo sus características y aplicaciones en el proceso de extracción de información.
Por otra parte, se hará la distinción entre datos e información y se describirán los procedimientos y herramientas que ayudan a la transformación de los datos en información.
Finalmente, se propondrá una aplicación práctica y factible de la metodología big data en la función del control de obras públicas que ejercen las entidades de fiscalización superiores.
Ventajas de la utilización de big data en el proceso auditor, 2018
Revisión de literatura
De acuerdo a los resultados del Estudio sobre observaciones y recomendaciones en la ejecución de contratos de obra pública de la Contraloría General de la República de Chile (2016), el cual resume 2.291 contratos fiscalizados, la concurrencia de observaciones relevantes puede incidir negativamente en el correcto desarrollo de un proyecto de construcción.
En efecto, observaciones como: incumplimiento de la normativa técnica, partidas pagadas anticipadamente, falta de permisos, irregularidades asociadas a modificaciones del contrato, inexistencia de cauciones, deficiencias en el proceso de recepción de obras, entre otras, generan un impacto al terminar produciendo un mayor costo para el Estado, al verse obligado a invertir mayores recursos para corregir anomalías.
Por otra parte, en la Auditoría coordinada sobre obras viales, de la Organización Latinoamericana y del Caribe de Entidades Fiscalizadoras Superiores (OLACEFS, 2017), se concluye que, para este tipo de proyectos, las reglas previstas en la fase de contratación ayudan a asegurar que una carretera sea de calidad; sin embargo, las fallas identificadas son el resultado del incumplimiento de las reglas definidas en los documentos contractuales. Es decir, el marco regulatorio promueve la buena gestión, pero si este no se respeta, corre peligro la correcta terminación de un proyecto.
Conforme a lo expuesto anteriormente, se hace imprescindible que las entidades de fiscalización superiores establezcan sistemas de control de las obras públicas, en cualquiera de sus etapas, buscando abarcar el mayor número de proyectos posible. No obstante, a primera vista es difícil ejercer algún tipo de control sobre la totalidad o una gran mayoría de obras que se encuentran en ejecución a lo largo del país, de forma eficiente y económica. Además, la fiscalización en terreno se hace insuficiente y no siempre logra los resultados buscados.
Ahora bien, si pudiésemos controlar ciertos parámetros propios del desarrollo de los contratos, sería posible ejercer un nivel de control respecto de la ocurrencia de algunas de las observaciones que más se reiteran y que no requieren la presencia de un fiscalizador en terreno para ser monitoreadas. Así, mediante el análisis de una base de datos, se extraería información precisa sobre el desempeño del servicio público a cargo del proyecto, generando alertas sobre las irregularidades detectadas.
Lo anterior, permitiría a la entidad de fiscalización superior incrementar considerablemente el número de obras bajo supervisión indirecta. La información obtenida también sería útil como insumo para los programas anuales de fiscalización o investigaciones especiales, buscando ser mucho más certeros en el objetivo de detectar presuntas irregularidades.
53
54
Jonathan Nabor López Espinosa
Desarrollo de la investigación
1. Conceptualización, definición y dimensiones de big data
1.1. Bienvenidos a la era del big data
Los datos no son algo nuevo, se podría afirmar que desde siempre el hombre ha sentido la necesidad de dejar registros de sus actividades, tal como los dibujos encontrados en las cavernas o los jeroglíficos en las pirámides. Sin embargo, esos antepasados no imaginaron que dichos registros, a la postre, serían los datos base que nos ayudarían a conocer cómo era su mundo; en otras palabras, se pudo conseguir información del registro dejado.
Es importante conocer la diferencia que hay entre datos e información. En general, los datos son registros de hechos, valores o resultados de mediciones, mientras que la información se obtiene una vez que los datos se procesan, agregan y presentan de la manera adecuada para que puedan ser útiles, permitiendo reducir la incertidumbre de quien los recibe. Es decir, a partir de los datos se extrae la información.
Ahora bien, se requiere del desarrollo de dos factores primordiales para el proceso de obtención de información. El primero es disponer de la capacidad de almacenamiento de datos suficiente —espacio físico para libros o espacio virtual para datos digitales— y el segundo factor es contar con los medios para procesar esos datos almacenados.
La inteligencia del ser humano fue el procesador originario hasta llegar a los computadores primitivos, cuya principal ventaja consistía en efectuar muchos más cálculos matemáticos que una persona, sin la necesidad de dormir, comer o descansar; aunque estas máquinas ocupaban el espacio de una gran habitación y su capacidad de almacenamiento de información era muy limitada.
Luego, a medida que corren los años, tal como lo explica la Ley de Moore, el avance tecnológico de los computadores permitió guardar y procesar muchos más datos, lo que en una primera instancia fue aprovechado con fines bélicos en la Segunda Guerra Mundial —descifrar códigos— y posteriormente por las empresas para realizar sus gestiones de negocios. A la larga, esto condujo al desarrollo de herramientas como la minería de datos, el análisis estadístico y la investigación de operaciones.
Hoy en día estamos inundados de datos, en parte, debido al uso de las tecnologías de información y al uso diario que las personas hacen de ellas, a tal punto que el volumen actual de datos ha superado las capacidades de procesamiento de los sistemas clásicos de minería de datos (Beltrán Martínez, 2016) y, de esta forma, casi forzosa, entramos en la era del big data .
Ventajas de la utilización de big data en el proceso auditor, 2018 55
1.2. Las cuatro «V» del big data
La bibliografía es muy amplia a la hora de dar definiciones sobre el big data , resaltamos las siguientes (Camargo Vega, Camargo Ortega, & Joyanes Aguilar, 2015):
• Información que no puede ser procesada o analizada mediante procesos tradicionales.
• Cantidades masivas de datos acumulados con el tiempo que son difíciles de analizar y manejar utilizando herramientas comunes de gestión de bases de datos.
• Tratamiento y análisis de enormes repositorios de datos, tan desproporcionadamente grandes que resulta imposible tratarlos con las herramientas de bases de datos y analíticas convencionales.
Queda claro que se refiere a efectuar un análisis que está fuera del alcance del ser humano y los métodos clásicos, quizás no por la falta de entendimiento del problema —el diseño adecuado de un modelo podría encontrar las soluciones buscadas—, sino que exclusivamente por el volumen de datos que se maneja.
Sin perjuicio de lo anterior, es posible definir el concepto de big data por medio de tres características que fueron introducidas en 2001. Estas son el volumen, la variedad y la velocidad (Camargo Vega et al., 2015).
• Volumen: se refiere a la cantidad de datos generados que tendrán que ser gestionados. En el ámbito del big data se manejan cifras de datos que se miden en terabytes, petabytes y exabytes. Para hacerse una idea de la magnitud de estas medidas, hay que imaginar que un terabyte (TB) es un 1 seguido de 12 ceros (1.000.000.000.000 bytes). Se ha estimado que Twitter y Facebook generan 7 y 10 TB de datos, respectivamente, en un día.
Otro ejemplo, los satélites de observación de la Tierra que generan un petabyte (PT), 1.015 bytes de datos diariamente, por lo que una persona trabajando 24 horas al día, todos los días del año, a un ritmo de procesamiento de una imagen por segundo, requeriría de varios años para mirar las imágenes generadas en un solo día.
• Variedad: consiste en tener diferentes tipos y fuentes de datos. Considerando la complejidad de gestionar múltiples tipos de datos, de distintos orígenes o clasificaciones; será necesario integrarlos y homogeneizarlos para poder analizarlos.
56
Jonathan Nabor López Espinosa
Es importante detectar el origen de los datos que se generan —sensores, dispositivos inteligentes, teléfonos celulares, páginas web, otras bases de datos o información interna de la organización—, porque presentarán formatos disímiles.
• Velocidad: dice relación con la rapidez con la que se crean, procesan y analizan los datos. Hoy en día, los datos se generan de forma continua a una velocidad a la que a los sistemas tradicionales les resulta imposible captarlos, almacenarlos y analizarlos.
Si bien estas tres características —volumen, variedad y velocidad— ayudan a entender el significado del big data, se recomienda agregar una cuarta: la veracidad de los datos (IBM Institute for Business Value, 2012).
• Veracidad: hace referencia al nivel de incertidumbre de los datos, de manera que es una premisa fundamental que los datos conseguidos sean fiables, para asegurar que los resultados obtenidos al final del proceso también lo sean.
Por naturaleza, a los seres humanos no les gusta la incertidumbre, pero ignorarla puede crear incluso más problemas que la propia incertidumbre, la que debe ser reconocida y aceptada; la única certeza acerca de la incertidumbre es que no desaparecerá.
1.3. La búsqueda del conocimiento
Con los conceptos definidos anteriormente, es posible afirmar que el big data consiste en examinar grandes cantidades de datos de una variedad de clases, con el fin de descubrir información que sea relevante y útil para la organización, de manera que esta pueda tomar las mejores decisiones.
Esta búsqueda de información con base en el análisis de datos en realidad no es algo nuevo, pues en décadas anteriores ya existía la necesidad de herramientas tecnológicas que ayudasen en esta misión. Desde el inicio de los años noventa, se comenzó a desarrollar el descubrimiento de conocimiento en bases de datos —knowledge discovery in database (KDD)— cuyo objetivo es la extracción no trivial de información implícita, previamente desconocida y potencialmente útil, a partir de un conjunto de datos.
En general, este descubrimiento de información se basa en dos conceptos principales (Beltrán Martínez, 2016):
• Búsqueda de regularidades interesantes entre los datos de partida. • Formulación de leyes que las describan.
Ventajas de la utilización de big data en el proceso auditor, 2018
Dada la complejidad de los análisis requeridos, las computadoras son más competentes que el ser humano para observar y recoger datos. Usando programas estadísticos, se pueden formar agrupaciones automáticamente o encontrar relaciones desconocidas entre los datos. La capacidad de estos artefactos para realizar búsquedas exhaustivas de forma continua entre grandes cantidades de datos ofrece buenas expectativas para obtener descubrimiento de forma automática.
Entonces un sistema de descubrimiento será un programa que toma como entrada el conjunto de datos y extrae las regularidades existentes —las que sean interesantes y bastante ciertas, según los criterios definidos por el usuario—, de modo de lograr un patrón nuevo, eventualmente útil y no trivial.
Por ejemplo, a partir de los datos de ubicación personal de los habitantes de una ciudad —GPS del celular—, se podría determinar cuál sería la mejor localización para cierto tipo de negocio. Así, si el resultado del análisis de datos meindica que los jóvenes entre 15 y 21 años frecuentan una determinada calle —regularidad detectada—, un local en ese sitio sería el emplazamiento idóneo para un negocio dirigido a ese segmento del mercado.
El proceso de KDD consta de 5 etapas (UIAF, 2014):
a) Selección de datos: consiste en la recolección y preparación de los datos. Se establecen los objetivos que ayudaran a identificar las variables a considerar en la etapa de minería de datos.
b) Preprocesamiento de datos: en una primera subetapa, se hace la integración de datos, donde se analiza si la base de datos requiere incluir o integrar información o variables que se encuentran en otras bases de datos; luego se efectúa un reconocimiento y limpieza, depurando el conjunto de datos respecto de valores extraños, ausentes o erróneos.
c) Selección de características: se comienza con una exploración y limpieza de datos, aplicando técnicas de análisis exploratorio de datos. Se busca identificar la distribución de los datos, alguna simetría, pruebas de normalidad y correlaciones entre los datos. A continuación de esto, se realiza la transformación, en donde se estandariza o normaliza la información, es decir, se la convierte a un mismo formato. Finalmente se hace la reducción de datos, disminuyendo el tamaño de los datos mediante la eliminación de características redundantes.
d) Minería de datos: es la etapa en donde, gracias a diferentes técnicas, se descubren relaciones, tendencias, desviaciones, comportamientos atípicos, patrones y trayectorias ocultas, con el propósito de incorporar mayor conocimiento a los procesos de toma de decisiones. Entre las técnicas
57
58
Jonathan Nabor López Espinosa
usadas por la minería de datos para la extracción de información no detectada, se encuentran el estudio de la inteligencia artificial, el análisis estadístico y la gestión de bases de datos.
e) Interpretación y resultados: se analizan los resultados de los patrones obtenidos en la fase de minería de datos, mediante técnicas de visualización y de representación, con el fin de generar el conocimiento esperado.
Como es posible advertir, para conseguir el descubrimiento de conocimiento es necesario entender diversos campos específicos que ayudan al análisis de datos, con el requisito fundamental de un nivel de dominio superior de ellos, porque, de no ser así, podrían no lograrse los resultados esperados al subutilizar o simplemente desperdiciar información implícita en los datos; con mayor razón a la escala de datos que propone el big data .
Debido a lo anterior, el tratamiento de datos masivos requiere de nuevos sistemas de procesamiento de alto rendimiento, en los cuales se automaticen los procesos por medio de algoritmos de aprendizaje que se adapten a los nuevos requerimientos del big data, en otras palabras, hay que aprovechar la capacidad de aprendizaje de las computadoras y usar la inteligencia artificial en nuestro beneficio.
2. Tendencias respecto a la tecnología para la administración de datos 2.1. Preprocesamiento de datos
Es sabido que la calidad del conocimiento extraído depende mayormente de la calidad de los datos. Sin embargo, los datos por sí solos presentan deficiencias que deben ser corregidas, como los datos repetidos, valores perdidos, inconsistencias, datos superfluos, por nombrar algunos. Es por esto que incorporar la veracidad como característica fundamental del big data cobra sentido para asegurar una buena administración de los datos.
Para asegurar que la información extraída sea de calidad, se recomienda usar el preprocesamiento de datos, siendo una etapa fundamental en el proceso de extracción de conocimiento, cuyo objetivo es obtener un conjunto final de datos que sea de calidad y útil para la siguiente fase de minería de datos.
Luego del uso de técnicas de preprocesamiento, el conjunto resultante de registros puede ser considerado como una fuente consistente y adecuada para la aplicación de los algoritmos de minería de datos. Estas técnicas se pueden agrupar en dos acciones: preparación de datos y reducción de datos.
La preparación de datos tiene por objetivo seleccionar los datos que servirán de entrada para los algoritmos de minería de datos por medio de técnicas de transformación, integración, limpieza de ruido e imputación de valores perdidos.
Ventajas de la utilización de big data en el proceso auditor, 2018
Cabe señalar que la preparación de datos es de uso obligatorio, ya que sin ellas los algoritmos de extracción de conocimiento podrían no ejecutarse o entregar resultados inconsistentes.
Por su parte, las técnicas de reducción de datos se orientan a obtener una representación reducida de los datos originales, buscando mantener la integridad y la información propia de los datos. Aplicar las técnicas de reducción no es estrictamente obligatorio, no obstante, si el tiempo de ejecución de un algoritmo o el tamaño de los datos es demasiado para los algoritmos de extracción, se recomienda utilizar estas técnicas para extraer conjuntos de datos más ajustados y de calidad. Las técnicas de reducción más usadas son: selección de atributos, selección de instancias y discretización (García, Ramírez-Gallego, Luengo, & Herrera, 2016).
No hay que olvidar que las técnicas descritas son anteriores a la era del big data y por ello muchos algoritmos estándar han quedado obsoletos. De esto surge la necesidad de diseñar nuevos métodos escalables —que se autoajusten a los nuevos requerimientos—, capaces de manejar grandes volúmenes de datos.
En 2003 Google diseñó MapReduce, una plataforma pionera en el procesamiento de datos masivos a través del particionamiento de los ficheros de datos y que funciona en dos fases: map y reduce. En la primera, el sistema procesa parejas clave-valor, tomadas directamente del sistema de ficheros, y transforma esos pares en otros pares intermedios, según una función definida por el usuario. En la fase reduce, los pares con claves coincidentes son enviados a un mismo nodo y son fusionados usando otra función definida por el usuario (García et al ., 2016). Hadoop es una versión de código abierto de MapReduce.
Otro programa de preprocesamiento de datos es Apache Spark, el que se ha convertido en una herramienta que supera las limitaciones de MapReduce, volviéndose muy popular en el ámbito del big data, pues es capaz de hacer procesos iterativos a partir de un mismo dato que es reutilizado varias veces, función que no puede realizar Hadoop. Además, Apache Spark efectúa análisis de datos en tiempo real (García et al., 2016).
2.2. Minería de datos
La disciplina llamada minería de datos estudia métodos y algoritmos que permiten la extracción automática de información oculta en un gran conjunto de datos. Usa el conocimiento adquirido en áreas como la inteligencia artificial, la estadística y el aprendizaje automático para descubrir relaciones, tendencias, desviaciones, comportamientos atípicos, patrones y trayectorias ocultas que alimentarán los procesos de toma de decisiones.
Los conceptos y métodos que ayudan a entender el funcionamiento de la minería de datos son los siguientes (Beltrán Martínez, 2016):
59
60
Jonathan Nabor López Espinosa
• Agrupamiento, segmentación o identificación de clases: es una herramienta que permite la identificación de tipologías o grupos donde los elementos poseen similitudes y diferencias con aquellos de otros grupos. Como resultado, se presentan los distintos grupos detectados junto con los valores característicos de las variables. Este método se apoya en el uso de técnicas estadísticas, algoritmos matemáticos, de generación de reglas y de redes neuronales para el tratamiento de los datos.
• Asociación: este tipo de herramientas establece las posibles relaciones o correlaciones entre distintas acciones o sucesos aparentemente independientes, pudiendo reconocer como la ocurrencia de un suceso puede inducir o generar la aparición de otros.
• Detección de desviaciones, casos extremos o anomalías: consiste en detectar los cambios más significativos en los datos respecto a valores definidos previamente. Es útil para filtrar grandes volúmenes de datos, sin embargo, la complejidad está en determinar cuándo una desviación es significativa para ser de interés.
• Reconocimiento de patrones: estas herramientas permiten la asociación de una información de entrada con aquellas que guarde mayor similitud y que ya estén catalogadas en el sistema.
• Clasificación: reúne a todas las herramientas que posibilitan la asignación de un elemento a un grupo o clase. A través del análisis de un grupo de datos de los cuales conocemos la clase a la que se adscriben, se establece un mecanismo que determina la pertenencia a tal clase en función de los valores de las variables.
La minería de datos funciona como un proceso cuyo objetivo es la extracción de conocimiento a partir de los datos seleccionados, usando las técnicas o herramientas descritas recientemente. Este proceso se puede describir por medio de las siguientes etapas (Beltrán Martínez, 2016):
a) Selección: el proceso comienza con la identificación de los datos, definiendo qué datos se van a requerir, dónde se encuentran y cómo conseguirlos. Luego lo ideal, es que los datos estén en un mismo formato que permita trabajar en las siguientes etapas.
b) Preprocesado: en esta etapa aún se considera que los datos se encuentran en bruto, por lo tanto, hay que filtrar los datos incorrectos, no válidos o desconocidos y adecuarlos a las necesidades del algoritmo o herramienta que usaremos más adelante.
c) Selección de características: tiene por objetivo reducir aún más el tamaño de los datos, seleccionando aquellas variables más determinantes para el problema.
Ventajas de la utilización de big data en el proceso auditor, 2018
d) Extracción de conocimiento: mediante la selección de una herramienta de minería de datos, se logra un modelo que representará los patrones de comportamiento o las relaciones observadas entre las variables del problema.
e) Evaluación y validación: una vez obtenido el modelo se debe proceder a su validación, comprobando que las conclusiones sean válidas y satisfactorias.
Entonces, la minería de datos se puede definir como un proceso analítico, diseñado para explorar grandes cantidades de datos con el objetivo de detectar patrones de comportamiento o relaciones entre diferentes variables definidas por el usuario. Siendo así, resulta de gran interés para los objetivos de las entidades de fiscalización superiores.
3. Metodología y procedimientos mínimos que las entidades de fiscalización superiores debieran utilizar para la evaluación y análisis de big data
3.1. Gestión de datos
Antes de pensar en la evaluación y análisis con tecnología big data, primero es necesario tener datos. Para esto, la entidad de fiscalización superior debe analizar qué datos maneja actualmente, de qué forma están siendo organizados, almacenados y si estos pasan por algún proceso de análisis del cual se extraiga información. En otras palabras, hacer un catastro de los datos que la entidad de fiscalización superior posee y analizar si se está obteniendo el máximo de beneficio.
Luego habría que iniciar la búsqueda de otras fuentes de datos, las que pueden ser de origen interno o externo a la institución. Los datos internos son aquellos que se extraen de los procesos propios de la entidad de fiscalización superior y que sirven para el estudio de la gestión interna, la que puede ser medida a través de la definición de indicadores de desempeño o calidad y que también podrían ser parte de la búsqueda de conocimiento. Las fechas de ingreso y salida de un documento son ejemplos de datos de origen interno.
Por su parte, los datos de origen externo estarán relacionados con la función de auditoría de la entidad de fiscalización superior. De acuerdo al objetivo que persiga cierta investigación, se requerirán datos específicos que guarden los servicios públicos. Dependerá de la gestión de información del servicio público fiscalizado, el formato y calidad de los datos que entregue, haciendo más o menos complicado el análisis de estos.
Una vez identificados los datos y su origen, se deberá estimar el volumen de estos, con el propósito de contar con la capacidad de almacenamiento
61
62
Jonathan Nabor López Espinosa
necesaria. En ningún caso debería ser una restricción el almacenamiento de los datos. Según el volumen de información para una investigación, se puede utilizar un disco duro externo o, en caso de una auditoría a nivel nacional, la entidad de fiscalización superior debería disponer de servidores suficientes donde guardar y ordenar los datos obtenidos.
Respecto a los datos masivos, dependerá del tamaño y organización de la entidad de fiscalización superior, la manera en que efectuará el almacenamiento de los datos. Puede ser que aglutine todo en un nivel central o tenga más bases de datos distribuidas a nivel regional, lo que variará según el volumen de registros que generen los servicios públicos de cada país. Habrá que considerar aspectos de seguridad informática en cuanto a los respaldos y el control de acceso externo a las bases de datos.
3.2. Gestión de información
Para la transformación de los datos en información, se requiere de un equipo profesional que domine las materias auditadas y defina los resultados que espera obtener en virtud de la investigación que se llevará a cabo. Si no existe claridad en qué información se va a extraer de un conjunto de datos, no tiene sentido hacer análisis complejos.
Además, es imprescindible que este equipo profesional tenga conocimientos básicos de las técnicas de procesamiento de datos descritas anteriormente, para que así, en el proceso de búsqueda de conocimiento, advierta los resultados que le serán útiles en el cumplimiento de los objetivos de la auditoría propuestos previamente. De esta manera, podrá alertar a los fiscalizadores en terreno dónde existen mayores probabilidades de hallar ilícitos o indicios de corrupción.
Por otra parte, el equipo que trabajará en el análisis big data deberá estar compuesto por profesionales ad hoc para las distintas etapas y procesos que conlleve la búsqueda de conocimiento a partir de datos masivos. Habrá que considerar ingenieros informáticos y matemáticos especialistas en métodos estadísticos, que puedan diseñar modelos o aplicar algoritmos que encuentren la información requerida por el equipo de investigación de auditoría.
De todas formas, es necesario que los equipos sepan interactuar positivamente, el de auditoría será el que defina los objetivos de la investigación e indicará al equipo de análisis de datos cuáles serán los datos a analizar, qué resultados espera lograr de ellos y cuánto tiempo se dispone para el análisis. Por su parte, el equipo de análisis de datos tendrá a su cargo informar si los datos son aptos para el procesamiento, si es posible obtener los resultados esperados y cuánto demorará el proceso.
Las entidades de fiscalización superiores deberán aprender a estimar el tiempo de duración de una investigación basada en técnicas de big data y entender
Ventajas de la utilización de big data en el proceso auditor, 2018
que el análisis de datos por sí solo no constituye una auditoría. Será preciso incorporar en la planificación los nuevos procedimientos que complementarán las metodologías de fiscalización, con el propósito de asegurar que los resultados sean totalmente fidedignos.
4. Beneficios en la utilización del big data. Limitantes que deberán enfrentar las entidades de fiscalización superiores
4.1. Control administrativo de obras públicas aprovechando el trámite de toma de razón que realiza la Contraloría General.
Como se mencionó anteriormente, se debe efectuar un estudio de las posibles fuentes de datos que puedan servir para el proceso de obtención de información, que estaba oculta o era desconocida y que sea útil para el propósito de las entidades de fiscalización superiores, aprovechando las técnicas que nos ofrecen las herramientas relacionadas al big data .
La Constitución Política de la República de Chile dispone que la Contraloría General ejercerá el control de legalidad de los actos de la Administración y que, en el ejercicio de esa función, tomará razón de los decretos y resoluciones que, en conformidad con la ley, deba tramitar. Por su parte, la resolución Nº 1.600, de 2008, de esa institución fiscalizadora, en el párrafo 4 de su título III, establece que quedará sometida a dicho control preventivo, la ejecución de obras públicas por trato directo o licitación privada por un monto superior a 5.000 UTM —aproximadamente 361.000 USD a julio de 2018— y las licitaciones públicas por el mismo concepto, superiores a 10.000 UTM —aproximadamente 723.000 USD a julio 2018—. En tales casos, se revisarán los antecedentes de la contratación, el pago de indemnizaciones o gastos generales, la devolución de retenciones, el término anticipado y la liquidación final del contrato.
De acuerdo con lo anterior, los servicios públicos en Chile deben enviar los expedientes de sus proyectos para la revisión de la Contraloría, la que cuenta con quince días para efectuar el estudio de legalidad y determinar si aprueba el acto administrativo, lo representa o lo cursa con alcances. Ahora bien, si consideramos que en cualquier caso se deben invertir horas hombre, ¿por qué no aprovechar esta instancia para recopilar datos relevantes que sirvan para deducir información de los proyectos de obras públicas a través de aplicaciones de big data ?
En todo proyecto en ejecución, se distinguen tres etapas principales en su desarrollo: licitación, ejecución y liquidación, y de cada una de ellas se pueden obtener datos relevantes. Por ello, a partir del momento en que un servicio público remite la resolución de adjudicación de un proyecto, la Contraloría estaría en condiciones de recopilar los datos significativos de la etapa de licitación, pues cuenta con acceso al expediente que acredita el cumplimiento del marco
63
64
Jonathan Nabor López Espinosa
regulatorio aplicable. Asimismo, tiene a su disposición las ofertas económicas y técnicas presentadas, desde donde también es posible extraer los datos buscados. Además, esta información se puede complementar con la plataforma de compras públicas usada en Chile, el portal electrónico www.mercadopúblico. cl, que sirve de repositorio de la documentación de esta etapa.
En la fase de ejecución, la supervisión efectiva de una obra de construcción solo es posible en tiempo real y en terreno. No obstante, los datos que se pueden lograr en esta etapa son de utilidad para evaluar la gestión del servicio público en su rol de inspeccionar que el actuar de la empresa constructora se ajuste a la normativa aplicable.
Efectivamente, mientras más datos se extraigan de muchos proyectos aplicando las herramientas de big data, es posible elaborar relaciones de causalidad que adviertan de alguna mala práctica de la Administración. Por ejemplo, la demora negligente en la aprobación de los estados de pago podría provocar al contratista un problema financiero, lo que finalmente podría desencadenar en el término anticipado del contrato.
En atención a lo expuesto, no es absurdo plantear un modelo de control administrativo de obras públicas que convierta a la entidad de fiscalización superior en una especie de vigilante omnipresente del servicio público, en cuanto a su deber de velar por el cumplimiento del contrato. Para esto se valdría de los datos relevantes recopilados en la toma de razón (ver anexos), los que le permitirían observar el comportamiento de la empresa constructora, del funcionario a cargo de la inspección técnica de la obra (ITO), de los jefes de servicios u otros departamentos relacionados con el proyecto. Así estaría en condiciones de extraer información antes desconocida que serviría de insumo para sus auditorías anuales, mientras que el equipo a cargo sería capaz de desarrollar líneas de investigación totalmente nuevas. Solo por mencionar algunos ejemplos, se podrían hacer análisis como los siguientes:
• Precio final pagado. Si en una obra pública se comparan el monto disponible, el monto adjudicado y el monto final del contrato, es factible medir la eficiencia del servicio en cuanto al uso de los recursos públicos. Como resultado, quedarían en evidencia las constructoras que para adjudicarse los proyectos rebajaron artificialmente sus ofertas, con la finalidad de recuperar el monto subestimado e incluso obtener mayores utilidades mediante modificaciones al contrato.
• Registro y seguimiento de fechas y plazos. Una vez aprobada la resolución que adjudica el contrato, el servicio procede a entregar el terreno a la constructora, iniciándose el plazo de construcción de la obra. A partir de ese momento, es posible estimar cuándo finalizará la ejecución, para luego pasar a la recepción de obras y a la liquidación del contrato. En consecuencia, si un
Ventajas de la utilización de big data en el proceso auditor, 2018
servicio no envía a toma de razón la liquidación dentro del plazo esperado, es dable inferir que el proyecto tendría problemas de ejecución o administrativos que podrían ser materia de fiscalización. Con esta intervención oportuna, se busca prevenir el término anticipado del contrato o posibles conflictos legales que signifiquen el desembolso extra de recursos fiscales para conseguir la realización del proyecto.
• Relación de causalidad entre los intervinientes y ciertos hechos ¿Se favorece de algún modo la empresa cuando está el funcionario X? ¿El servicio Y tiene deficiencias en el control de garantías del contrato o en el control de los plazos de las obras? ¿La empresa Z aumenta su número de tratos directos en presencia del funcionario X?
Con la información recogida de la acumulación de datos de muchos proyectos de diferentes servicios, será posible advertir tendencias, relaciones y situaciones anómalas que servirán para decidir qué, cuándo, dónde y a quién fiscalizar con una alta probabilidad de tener hallazgos relevantes para la entidad de fiscalización superior.
Los resultados del análisis de los datos recogidos generarán alertas respecto de las entidades públicas que presentan mayor número de observaciones, valores fuera de rango, irregularidades y el índice de reiteración de estas. La proyección de este sistema de control administrativo de obras públicas es que, a futuro, logre predecir, con base en los datos y la información obtenida, en qué obras habrá una alta probabilidad de fracaso, para así tomar medidas preventivas que eviten la dilapidación de los recursos del Estado.
Lo anterior se propone para una primera etapa de implementación del big data, debido a la simplicidad del modelo planteado. Ahora bien, esta idea es extensible a las obras públicas que no están sometidas al trámite de toma de razón en Chile, siendo factible utilizar los datos recopilados en el portal GEO- CGR, una plataforma web de georreferenciación de proyectos, en donde los mismos servicios públicos son los que suben los datos de sus proyectos. De esta manera, será posible efectuar un control administrativo que abarque el máximo de construcciones efectuadas con recursos públicos.
4.2. Limitaciones del big data para las entidades de fiscalización superiores
La primera es convencer de la necesidad de utilizar la tecnología big data para mejorar los resultados de las auditorías. La incorporación de esta herramienta se verá facilitada o desechada en la institución, dependiendo de dónde se ubiquen en el nivel jerárquico los detractores internos que se resisten a los cambios.
También hay que considerar que habrá presiones externas para que las entidades de fiscalización superiores no utilicen esta tecnología: los detractores externos
65
66
Jonathan Nabor López Espinosa
conscientes del peligro de quedar en evidencia por los resultados obtenidos gracias a estas nuevas herramientas de auditoría y fiscalización.
Una vez asimilado el uso del big data, se deberá incluir en el organigrama de la entidad un departamento a cargo del estudio de datos masivos. Por lo tanto, las entidades de fiscalización superiores deberán buscar profesionales idóneos para conformar el equipo que se dedicará a la exploración de datos y a la generación de información.
Luego, se tendrá que dotar a este departamento de la tecnología necesaria para el desarrollo de su función, lo que implica un costo económico que al principio no se verá justificado a la vista de sus detractores.
Por otra parte, la brecha tecnológica impide que algunos servicios públicos cuenten con los datos que se van a solicitar o que el formato de estos no se adecue a los requerimientos de la entidad de fiscalización superior. En esto hay que entender que los datos para un servicio tienen una función distinta en relación a lo que buscará la entidad de fiscalización superior en ellos.
5. Ventajas en la utilización de big data en el proceso de auditoría
En primer lugar, hay que reconocer que se desconocen los usos potenciales de una nueva herramienta hasta que esta se utiliza, pero es evidente que el uso de la tecnología big data y los conceptos de búsqueda de conocimiento abrirán enfoques totalmente nuevos para las líneas de investigación en auditoría y fiscalización.
Así como en este trabajo se propone un control administrativo de las obras públicas invisible para los servicios públicos, del cual se obtendrá la información que permita decidir de manera fehaciente en dónde enfocar los recursos de la institución para optimizar los hallazgos de auditoría; deben existir otras formas aún no imaginadas en que esta tecnología ayude a las entidades de fiscalización superiores en el cumplimiento de su función fiscalizadora.
Por otra parte, más que una ventaja, es una obligación para las entidades de fiscalización superiores la incorporación del big data a sus procesos de auditoría. Los servicios públicos y el Estado cuentan con bases de datos propios de su gestión, los cuales al ser analizados con estas herramientas permitirán al fiscalizador sagaz extraer información útil.
Se debe aprovechar el hecho de que algunos servicios públicos ya cuentan con bases de datos que, por lo demás, están obligados a entregar a solicitud de las entidades de fiscalización superiores.
La forma de cometer delitos o ilícitos cambia conforme evoluciona la tecnología y mientras más fuentes de información se tengan, mejor será el desempeño de las
Ventajas de la utilización de big data en el proceso auditor, 2018
entidades de control en dar con aquellas irregularidades que afectan al Estado. Cabe señalar que los funcionarios públicos ya conocen las metodologías clásicas de las entidades de fiscalización superiores para hacer sus investigaciones, por consiguiente, saben la forma de ocultar de la vista del fiscalizador los hechos o antecedentes que constituyan un ilícito. La aplicación de estas herramientas ayudará a develar dichas situaciones.
En el caso de la supervisión de las obras públicas, todo apunta a una digitalización de los procesos constructivos. Ya se usan checklists electrónicos para el control de calidad, libros de obras digitales, control de avance de obra con software, sin mencionar la inminente activación de la tecnología BIM (building information modeling) en la gestión de las obras. Siendo así, los proyectos comenzarán a tener una huella digital cada vez más abundante, la que, en conjunto con el resto de datos recopilados —control administrativo de obras públicas—, se podría utilizar para la creación de perfiles de obras que nos faciliten controlar el progreso de un proyecto, de la misma forma en que las redes sociales crean perfiles de usuarios con fines comerciales.
6. Identificación de posibles riesgos en la utilización de big data en el proceso auditor y estrategias para minimizarlas
Entendiendo que la entidad de fiscalización superior adoptó e implementó el uso de tecnologías big data en su organización, se pueden identificar los siguientes riesgos:
• Personal poco preparado o improvisado designado para la ejecución de las herramientas de big data. Es preciso que la entidad de fiscalización superior no escatime esfuerzos para seleccionar a los mejores profesionales en las respectivas áreas de esta nueva herramienta.
• Reticencia al uso de tecnología debido a la brecha generacional de algunos funcionarios y su relación con la tecnología. Las entidades de fiscalización superiores deberán capacitar a todo el personal respecto de estos temas, puesto que la formulación de una idea no requiere del conocimiento matemático específico, pero sí el dominio del tema para proponer mejoras a las auditorías o a la gestión interna de la organización.
• Subutilización o desperdicio de fuentes de información. No apreciar el valor de ciertos datos que están al alcance de la entidad de fiscalización superior, pero que no se registran debido a que nadie ha visto algún potencial en ellos. Para evitar esta situación, es recomendable hacer un levantamiento de procesos de gestión interna de la organización, porque los datos obtenidos pueden servir para medir y mejorar esos mismos procesos.
67
68
Jonathan Nabor López Espinosa
• Evitar auditar aquellos servicios públicos que no cuenten con datos e investigar repetidamente a aquellos que sí disponen de bases de datos. No se debe excluir de las investigaciones de auditoría a los servicios que no posean bases de datos o información en formato digital. Por lo mismo, deberían ser sujetos directos de fiscalización y, por su parte, las entidades de fiscalización superiores deberán promover el uso de tecnologías de gestión de información. Por muy pequeño que sea el servicio público, algo tendrá que mostrar.
• Como se mencionó anteriormente, la búsqueda de conocimiento no reemplazará a la auditoría, por eso se debe entender como una herramienta que complementa la labor fiscalizadora y no la respuesta absoluta a los objetivos de la investigación. La información conseguida será el punto de partida para que el equipo de auditoría haga su trabajo en terreno.
• Conformarse con la información que los servicios entregan en primera instancia. Las entidades de fiscalización superiores deberán hacer estudios de todas las posibles fuentes para la obtención de datos que posean los servicios públicos, porque en un comienzo se desconoce qué datos serán de utilidad y cuáles no.
• Hay un riesgo en no atreverse a hacer cruces de información entre bases de datos de distintas entidades públicas. Coordinar el manejo de ese volumen de datos y la extracción de información será una tarea titánica, de gran costo y largo aliento.
Ventajas de la utilización de big data en el proceso auditor, 2018
Conclusiones
Las entidades de fiscalización superiores deberán estar preparadas para incorporar la tecnología y conceptos del big data. Los servicios públicos generan cada vez más un volumen mayor de datos que habrá que analizar y ya no serán suficientes las técnicas clásicas de auditoría, donde el conjunto de datos queda restringido al objetivo de la investigación. Ahora será necesario examinar el volumen total de datos en poder de un servicio y, con las debidas técnicas de búsqueda de conocimiento, encontrar información útil y nueva al proceso auditor.
Es primordial que los equipos que trabajen en big data estén conformados por profesionales con dominio en los campos del análisis de datos, análisis estadístico y gestión de información. Sin embargo, este equipo de big data no podrá trabajar solo, dado que los lineamientos de lo que se está buscando han sido definidos por el equipo de auditores.
Debido a esta interacción, la retroalimentación entre los equipos es fundamental, pues las herramientas de big data sacarán a la luz tendencias, relaciones o situaciones anómalas que no se encontraban previstas en la definición de objetivos dada por el equipo auditor, es decir, hay que establecer un proceso iterativo en el procedimiento de auditoría basado en big data .
El almacenamiento y administración de datos no debería ser una restricción para el uso de herramientas de big data en las entidades de fiscalización superiores. No habría que desechar ningún conjunto de datos, porque a futuro estos podrían ser fuente de información. A medida que se tiene mayor conocimiento, comienzan a aparecer nuevas dudas.
Las entidades de fiscalización superiores tendrán que elaborar un catastro de los datos generados en sus procesos internos y dejar registro de ellos para apoyar la gestión de la organización. Asimismo, las herramientas de búsqueda de conocimiento pueden ser aplicadas para mejorar el desempeño de la entidad de fiscalización superior, porque big data no implica solo el trabajo con un gran volumen de datos, sino que considera además la variedad de los mismos.
El control administrativo de obras públicas propuesto en este trabajo tiene un gran potencial para extraer información sobre la gestión de los servicios públicos y cómo estos velan por el cumplimiento de los contratos. A medida que se añadan más proyectos en la base de datos, se podrá conocer de mejor manera el comportamiento de los distintos servicios, lo que será de gran utilidad para dirigir los esfuerzos de la entidad de fiscalización superior en su rol de control de la corrupción.
69
70
Jonathan Nabor López Espinosa
En efecto, la idea planteada consiste en transformar los datos relevantes adquiridos de las diferentes etapas en parámetros de control, los cuales, en conjunto, permitirán evaluar el desempeño de los servicios públicos en los referidos contratos. Es importante mencionar que, dada la naturaleza de las obras de construcción, la extracción de los datos será parcializada y dependiente de los plazos de ejecución —tiempo entre licitación y liquidación—; sin embargo, esto no impide el uso de herramientas de big data en la búsqueda de información, debido al volumen y variedad de datos que se están generando de los proyectos que ya están en curso.
Además, este control administrativo recomendado apunta a medir y conseguir indicadores de la gestión de los servicios, más que de una obra en particular. Se busca lograr que el Estado cumpla su función de manera eficiente en el uso de los recursos públicos, alcanzando una economía que libere dineros para otros propósitos.
Por otra parte, el control administrativo de obras públicas, de la forma en que se plantea, permitiría vigilar un considerable número de proyectos y de entidades públicas, con una cobertura que actualmente las entidades de fiscalización superiores no tienen y con un costo totalmente razonable. A su vez, la información obtenida del análisis de los datos recolectados a través de esta propuesta, serviría de insumo para definir de forma certera el sujeto a fiscalizar, optimizando los recursos destinados a las auditorías de las entidades de fiscalización superiores y mejorando los resultados de las investigaciones.
El potencial de esta tecnología aún es difícil de imaginar, en la teoría del big data se estima que en el futuro serán las computadoras las que tomarán las decisiones de distribución de recursos, porque superan al ser humano, al ser más rápidas y no perseguir provecho personal. Si extrapolamos esto a términos políticos, al georreferenciar la distribución de recursos de una zona determinada, se podría observar cuáles son las áreas de influencia según el color político y cómo esto se relaciona con la distribución de recursos.
Esta sería una proyección interesante de aplicación de big data que podría cambiar la forma de hacer las cosas en un país, en pro de la búsqueda del desarrollo transversal de la población y no en la obtención de beneficios para unos pocos.
Ventajas de la utilización de big data en el proceso auditor, 2018
Referencias
• Beltrán Martínez, B. (2016). Minería de datos (material de curso). Puebla, México: Benemérita Universidad Autónoma de Puebla. Obtenido de http://bbeltran.cs.buap.mx/NotasMD.pdf
• Camargo Vega, J., Camargo Ortega, J., & Joyanes Aguilar, L. (2015). Conociendo big data. Revista Facultad de Ingeniería, 24(38), 63-77.
• CEP. (2017). Un Estado para la ciudadanía: informe de la Comisión de Modernización del Estado CEP. Obtenido de https://www.cepchile.cl/ cep/site/artic/20171109/asocfile/20171109124242/un_estado_para_la_ ciudadania_cep_.pdf
• CEPAL. (2017). Estado de la banda ancha en América Latina y el Caribe. Obtenido de https://repositorio.cepal.org/bitstream/ handle/11362/43365/1/S1800083_es.pdf
• Contraloría General de la República. (2016). Estudio sobre observaciones y recomendaciones en la ejecución de contratos de obra pública. Obtenido de http://www.contraloria.cl/NewPortal2/portal2/ShowProperty/ BEA+Repository/Merged/2016/Archivos//0191
• García, S., Ramírez-Gallego, S., Luengo, J., & Herrera, F. (2016). Big data : preprocesamiento y calidad de datos. Novática(237), 17-23.
• IBM Institute for Business Value. (2012). Analytics: el uso de big data en el mundo real. Obtenido de https://www-05.ibm.com/services/es/gbs/ consulting/pdf/El_uso_de_Big_Data_en_el_mundo_real.pdf
• OLACEFS. (2017). Auditoría coordinada sobre obras viales. Obtenido de http://www.olacefs.com/auditorías-coordinadas/
• Unidad de Información y Análisis Financiero de la República de Colombia (UIAF). (2014). Técnicas de minería de datos para la detección y prevención del lavado de activos y la financiación del terrorismo (LA/FT). Obtenido de http://www.urosario.edu.co/observatorio-de-lavado-de-activos/Archivos_ Lavados/Tecnicas-de-mineria-de-datos-para-la-prevencion-de.pdf
71
72 Jonathan Nabor López Espinosa
Anexos
Se describen a modo de ejemplo, los datos requeridos según etapa del proyecto para completar la base de datos de los proyectos sometidos al trámite de toma de razón.
Tabla Nº 1: datos extraídos desde la etapa de adjudicación
ADJUDICACIÓN
SUBETAPA DATO REQUERIDO DETALLE
IDENTIFICACIÓN
NOMBRE DEL PROYECTO Nº BID
(BANCO INTEGRADO DE PROYECTOS)
UBICACIÓN GEOGRÁFICA REGIÓN - CIUDAD - COMUNA
CONVENIO MANDATO MANDANTE
(QUIEN FINANCIA)
FINANCIAMIENTO
UNIDAD TÉCNICA
(SERVICIO QUE SE HACE RESPONSABLE DE LA EJECUCIÓN DEL PROYECTO Y SU DIRECTIVO A CARGO)
FUENTES DE FINANCIAMIENTO FNDR - SECTORIALES - OTROS
GLOSA PRESUPUESTARIA MONTO ASIGNADO
(PESOS - UF - UTM)
NORMATIVA
BASES ADMINISTRATIVAS - REGLAMENTO DE CONTRATACIÓN
TIPO DE LLAMADO
LICITACIÓN PÚBLICA - LICITACIÓN PRIVADA - TRATO DIRECTO - CONVENIO MARCO
LICITACIÓN
ID MERCADO PÚBLICO TIPO DE CONTRATO
(Nº DE LICITACIÓN Y LLAMADO)
SUMA ALZADA - SERIE DE PRECIOS UNITARIOS - COMBINACIÓN
TIPO DE REAJUSTE NO CONSIDERA - IPC - POLINÓMICO - UF
MONTO ESTIMADO (PESOS - UF - UTM)
PLAZO ESTIMADO (DÍAS CORRIDOS- DÍAS HÁBILES)
RESOLUCIÓN
(QUE APRUEBA LOS ANTECEDENTES Y BASES ADMINISTRATIVAS DEL PROYECTO)
RESOLUCIÓN DE ADJUDICACIÓN
(FECHA - TOTALMENTE TRAMITADA)
ADJUDICACIÓN
EMPRESA ADJUDICADA MONTO ADJUDICADO
(IDENTIFICAR - RUT) (PESOS - UF - UTM)
PLAZO ADJUDICADO (DÍAS CORRIDOS-DÍAS HÁBILES)
INSPECTOR TÉCNICO DE OBRAS DESIGNADO
(IDENTIFICAR - RUT)
EVALUACIÓN DE LA GESTIÓN DE LA ETAPA
CALIFICACIÓN
(LA EVALUACIÓN SE REALIZA CON BASE EN LAS OBSERVACIONES ENCONTRADAS EN LA TOMA DE RAZÓN)
Ventajas de la utilización de big data en el proceso auditor, 2018 Tabla Nº 2: datos extraídos desde la etapa de ejecución
EJECUCIÓN
73
SUBETAPA DATO REQUERIDO DETALLE
PROCESOS ADMINISTRATIVOS
GARANTÍAS ESTADOS DE PAGO
(GESTIÓN BUENA - REGULAR - MALA) (GESTIÓN BUENA - REGULAR - MALA)
DISMINUCIÓN DE OBRAS (MONTO TOTAL)
% RESPECTO DEL MONTO CONTRATADO
AUMENTO DE OBRAS
(MONTO TOTAL)
MODIFICACIONES DEL CONTRATO
% RESPECTO DEL MONTO CONTRATADO
OBRAS NUEVAS
(MONTO TOTAL)
% RESPECTO DEL MONTO CONTRATADO
AUMENTOS DE PLAZOS
(VALOR TOTAL)
RECEPCIÓN PROVISORIA
% RESPECTO DEL PLAZO CONTRATADO
MULTAS FECHA DE TÉRMINO
COMISIÓN DESIGNADA (IDENTIFICACIÓN - RUT)
EVALUACIÓN DE LA GESTIÓN DE LA ETAPA
CALIFICACIÓN
(LA EVALUACIÓN SE REALIZA CON BASE EN LAS OBSERVACIONES ENCONTRADAS EN LA TOMA DE RAZÓN)
Tabla Nº 3: datos extraídos desde la etapa de liquidación
LIQUIDACIÓN
SUBETAPA DATO REQUERIDO DETALLE
TIPO DE LIQUIDACIÓN (NORMAL - ANTICIPADA)
REAJUSTES (MONTO TOTAL)
LIQUIDACIÓN
DEVOLUCIÓN DE RETENCIONES SALDOS PENDIENTES
(MONTO TOTAL) (MONTO TOTAL)
MONTO FINAL
% RESPECTO DEL MONTO DISPONIBLE
EVALUACIÓN DE LA GESTIÓN DE LA ETAPA
CALIFICACIÓN
(LA EVALUACIÓN SE REALIZA CON BASE EN LAS OBSERVACIONES ENCONTRADAS EN LA TOMA DE RAZÓN)