Buscamos incorporar un Ingeniero / a de Datos para una importante compañía que desarrolla su actividad en los sectores forestal y agrícola.
Su misión será Administrar, gestionar, procesar y organizar datos, así como implementar la infraestructura necesaria para almacenarlos de forma adecuada y que así estos puedan ser utilizados del modo más eficiente (al convertirse en datos estructurados, accesibles y fiables).
Algunas de sus funciones serán las siguientes :
- Apoyo al desarrollo del área de Market Intelligence atendiendo a las necesidades / objetivos de cualquier departamento de la organización.
- Determinar de dónde extraer los datos, cómo recuperarlos y construir algoritmos para que el acceso a los datos brutos sea más sencillo y útil para la empresa.
Es decir, optimizar la obtención DE DATOS para que estos sean fiables y de calidad.
- Desarrollo, testeo y mantenimiento de arquitecturas DE DATOS . Debe detectar su potencial, corregirlas cuando sea necesario y descartar lo que considere oportuno.
- Identificar cómo mejorar la calidad, eficiencia y confiabilidad de los datos .
- Identificar tendencias y patrones ocultos que puedan afectar a los objetivos de la empresa.
- Herramientas y lenguaje de programación .
- Desarrollo de softwares para sistemas escalables .
- Utilizar los datos para determinar qué tareas se pueden automatizar o emplear en modelos predictivos y prescriptivos.
Requisitos :
- Formación : Ingeniería o Licenciatura en matemáticas y Postgrado en el ámbito de Datos
- Experiencia : Al menos entre 1 y 2 años
- Idiomas : Indispensable nivel B2 de inglés.
- Ofimática empresarial : Google Suite, Microsoft 365
- Conocimientos Valorables : Visual basic, ERP Zoho One
- Dimensiones técnicas :
- Conocimiento avanzado en BBDD relacionales y NoSQL (Cassandra, Redis, MongoDB ).
- Experiencia técnica con modelos DE DATOS, minería DE DATOS y técnicas de segmentación.
- Experiencia de programación en Java , Python y Spark .
- Formación sobre sistemas de ficheros distribuidos como Hadoop , HDFS o Spark .
- Conocimientos de herramientas para tratar y procesar grandes volúmenes DE DATOS como Apache Kafka o Apache Storm.
- Experiencia en el uso de infraestructuras cloud, contenerización y herramientas de BI y visualización (Zoho Analytics, PowerBI).
- Adoptar buenas prácticas para la custodia y seguridad de los datos.