10 Ofertas de Ingeniero de Datos en Chile
Ingeniero de Datos AWS
Publicado hace 19 días
Trabajo visto
Descripción Del Trabajo
Join to apply for the Ingeniero de Datos AWS role at BC Tecnología
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.
Responsabilidades principales- Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
- Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
- Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
- Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
- Mantener la seguridad y controles de acceso con IAM.
- Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
- Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
- Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.
Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.
Habilidades y experiencias deseablesSería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.
Beneficios y cultura laboralEn BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.
#J-18808-LjbffrSenior Big Data Engineer
Hoy
Trabajo visto
Descripción Del Trabajo
Overview
SoftServe is a global digital solutions company headquartered in Austin, Texas, founded in 1993. Our associates work on 2,000+ projects with clients across North America, EMEA, APAC, and LATAM. We are about people who create bold things, make a difference, have fun, and love their work.
Big Data & Analytics is the data consulting and engineering arm of our Center of Excellence. Hundreds of data engineers and architects build end-to-end data & analytics solutions from strategy and architecture through technical design, proof of concept, and full-scale implementation. We work with clients across healthcare, finance, manufacturing, retail, and energy industries. We hold top-level partnerships with major cloud providers and collaborate with technology leaders such as AWS, GCP, Microsoft, Databricks, Snowflake, Confluent, and others.
IF YOU ARE
Responsibilities- Write production code to implement fast, reliable, scalable data pipelines in SQL (using DBT) and Python/PySpark
- Process billions of historical data points collected from tens of thousands of retail stores across the US
- Deploy, scale, and maintain ETL pipelines that power our recommendation engine and ordering system
- Collaborate closely with cross-functional teams and clients to gather integration requirements and design data integration specifications
- Ensure data accuracy, completeness, and consistency by implementing robust quality checks and validation processes
- Develop and maintain automated monitoring systems to detect and address data anomalies proactively
- Troubleshoot and resolve integration or data issues, perform root cause analysis, and communicate data fixes or novel workarounds as needed
- Identify and implement impactful projects to accelerate velocity and minimize effort for integrations and related tools and processes
- Experienced in SQL and Python, with a track record of successfully delivering data integration projects
- Comfortable working primarily in DBT, while using PySpark to support deeper architectural and transformation logic
- Skilled in writing clean, efficient, and maintainable code following software engineering best practices
- Experienced with DBT macros (must have) and Jinja templating, able to apply them to build reusable and scalable transformations
- Confident in Databricks as a compute and storage platform
- Skilled in stakeholder management to identify both high-tech and low-tech solutions and choose the appropriate solution
- Confident in owning data integration workflows from end to end, with a mindset of continuous improvement and optimization
- A proficient upper-intermediate English speaker
- Address different business and technology challenges, engage in impactful projects, use top-notch technologies, and drive multiple initiatives as part of the Center of Excellence
- Support your technical and personal growth with a dedicated career plan for all roles
- Investigate new technologies, build internal prototypes, and share knowledge with the SoftServe Data Community
- Upskill with full access to Udemy learning courses
- Pass professional certifications, encouraged and covered by the company
- Adopt best practices from experts while working in a team of top-notch engineers and architects
- Collaborate with world-leading companies and attend professional events
SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law.
Let’s put your talents and experience in motion with SoftServe.
#J-18808-LjbffrEspecialista de Big Data
Publicado hace 22 días
Trabajo visto
Descripción Del Trabajo
¿Por qué ser parte de SONDA?
Porque al igual que tú, amamos lo que hacemos, tenemos pasión por la innovación y estamos convencidos de que a través del conocimiento y de la tecnología no solo vamos a transformar los negocios de nuestros clientes, sino también el futuro.
En SONDA vivirás una experiencia de trabajo con diversas oportunidades de desarrollo personal y profesional. Es un excelente lugar para aprender y contribuir a mejorar la calidad de vida de las personas mediante la tecnología.
Buscamos a Especialista en Big Data que quiera aprender y transformar su carrera.
Responsabilidades:- Crear la infraestructura de Big Data, incluyendo pipelines de datos desde la recolección hasta la entrega para análisis o para alimentar productos o servicios basados en análisis predictivos en producción.
- Asegurar que la arquitectura de datos sea adecuada para que los científicos de datos puedan trabajar con ella.
- Construir y mantener Data Lakes y ofrecer API para acceso a Data Science.
- Proporcionar soporte para que el trabajo del Especialista en Data Science sea más efectivo.
- Profesional en Ingeniería Civil, Ejecución en Computación e Informática, o carrera técnica o profesional afín, con más de 3 años de experiencia.
- Experiencia en construcción de procesos e integración de datos en Big Data.
- Conocimiento en computación distribuida y SQL.
- Experiencia con bases de datos relacionales como Oracle y PostgreSQL.
- Conocimiento en servicios en entorno Cloudera.
- Programación en Java o Python y programación funcional en Scala/Spark.
- Diseño de esquemas de datos y conocimientos en Hive, Impala, Kudu, Kafka.
- Deseable experiencia en bases de datos NoSQL, sistemas Unix/Linux, shell scripting y herramientas CI/CD.
- Conocimiento básico en computación en la nube es deseable.
- Integración de datos, Big Data, Desarrollo API, Microservicios, desarrollo en nube, seguridad en desarrollo, diseño de aplicaciones, metodologías ágiles.
- Flexibilidad laboral y desarrollo profesional continuo.
- Ambiente colaborativo, diverso e innovador.
- Plataforma educativa SONDA Academy y programa SONDA Wellness.
- Compromiso con la diversidad e inclusión.
Ubicación: Las Condes, Santiago Metropolitan Region, Chile
#J-18808-LjbffrBig Data Developer (ingles avanzado)
Ayer
Trabajo visto
Descripción Del Trabajo
En TCS estamos en búsqueda de talentos como tú. Somos una empresa que tiene presencia en más de 50 países a nivel mundial, en Latinoamérica estamos en 8 países y ya somos más de 17 mil asociados que hacen parte de esta gran familia.
Hoy quiero invitarte a que te unas a nosotros y transformemos el mundo a través de la tecnología. Estamos buscando un Big Data Developer
Si estás interesado envía tu CV actualizado, con disponibilidad y pretensiones de renta al correo
Seguro complementario y de vida bastante completo que incluye asesoría Nutricional, Deportiva, Clínica del Sueño, apoyo Psicológico, Kinesiología, Psicopedagogía, Fonoaudiología, Consultas de Telemedicina, Descuentos en Farmacias. Convenios y descuentos con clínicas dentales, ópticas, gimnasios. Día libre por cumpleaños y Aguinaldos. Convenio con Fundación Arturo López Pérez (FALP) para el cáncer
“Tata Consultancy Services es un empleador que ofrece igualdad de oportunidades, nuestro compromiso con la diversidad y la inclusión impulsa nuestros esfuerzos para brindar igualdad de oportunidades a todos los candidatos que satisfacen nuestras necesidades de conocimientos y competencias requeridas, independientemente de cualquier origen socioeconómico, raza, color, origen nacional, religión, sexo, identidad de género, edad, estado civil, discapacidad, orientación sexual o cualesquiera otros."
En particular, TCS Chile promueve la contratación de Personas con Discapacidad de acuerdo a la Ley N°20.422, contamos con un proceso de reclutamiento acorde y alentamos a cualquier persona interesada en construir una carrera en TCS a participar en nuestros procesos de reclutamiento y selección
Industries- Financial Services
- Developer Back-end Python con Experiencia en AWS
- Ingeniero/a de Datos (Data Science + Back-end Python)
Big Data Engineer - Remote Work | REF#112978
Publicado hace 25 días
Trabajo visto
Descripción Del Trabajo
At BairesDev, we've been leading the way in technology projects for over 15 years. We deliver cutting-edge solutions to giants like Google and the most innovative startups in Silicon Valley.
Our diverse 4,000+ team, composed of the world's Top 1% of tech talent, works remotely on roles that drive significant impact worldwide.
When you apply for this position, you're taking the first step in a process that goes beyond the ordinary. We aim to align your passions and skills with our vacancies, setting you on a path to exceptional career development and success.
Big Data Engineer at BairesDevBig Data Engineers will face numerous business-impacting challenges, so they must be ready to use state-of-the-art technologies and be familiar with different IT domains such as Machine Learning, Data Analysis, Mobile, Web, IoT, etc. They are passionate, active members of our community who enjoy sharing knowledge, challenging, and being challenged by others and are genuinely committed to improving themselves and those around them.
What You’ll Do:- Work alongside Developers, Tech Leads, and Architects to build solutions that transform users’ experience.
- Impact the core of business by improving existing architecture or creating new ones.
- Create scalable and high-availability solutions, and contribute to the key differential of each client.
- 6+ years of experience working as a Developer (Ruby, Python, Java, JS, preferred).
- 5+ years of experience in Big Data (Comfortable with enterprises' Big Data topics such as Governance, Metadata Management, Data Lineage, Impact Analysis, and Policy Enforcement).
- Proficient in analysis, troubleshooting, and problem-solving.
- Experience building data pipelines to handle large volumes of data (either leveraging well-known tools or custom-made ones).
- Advanced English level.
- Building Data Lakes with Lambda/Kappa/Delta architecture.
- DataOps, particularly creating and managing batch and real-time data ingestion and processing processes.
- Hands-on experience with managing data loads and data quality.
- Modernizing enterprise data warehouses and business intelligence environments with open-source tools.
- Deploying Big Data solutions to the cloud (Cloudera, AWS, GCP, or Azure).
- Performing real-time data visualization and time series analysis using open-source and commercial solutions.
- 100% remote work (from anywhere).
- Excellent compensation in USD or your local currency if preferred.
- Hardware and software setup for you to work from home.
- Flexible hours: create your own schedule.
- Paid parental leaves, vacations, and national holidays.
- Innovative and multicultural work environment: collaborate and learn from the global Top 1% of talent.
- Supportive environment with mentorship, promotions, skill development, and diverse growth opportunities.
Join a global team where your unique talents can truly thrive!
#J-18808-LjbffrIngeniero de Big Data - Trabajo Remoto | REF#267272
Publicado hace 25 días
Trabajo visto
Descripción Del Trabajo
En BairesDev llevamos 15 años liderando proyectos de tecnología para clientes como Google, Rolls-Royce y las startups más innovadoras de Silicon Valley. Actualmente, contamos con un equipo de 4000 profesionales conformado por el top 1% de la industria trabajando de forma remota desde más de 50 países.
Al postularte a esta vacante, estarás dando el primer paso en un proceso que va más allá de lo convencional: Buscaremos conocer en profundidad tus habilidades, intereses y expectativas con el objetivo de realizar una búsqueda personalizada y encontrar el rol ideal para ti en BairesDev.
Los ingenieros de Big Data se enfrentarán a numerosos retos de impacto empresarial, por lo que deben estar preparados para utilizar tecnologías de vanguardia y estar familiarizados con diferentes dominios de TI, como el aprendizaje automático, el análisis de datos, los móviles, la web, el IoT, etc. Son miembros apasionados y activos de nuestra comunidad que disfrutan compartiendo conocimientos, desafiando y siendo desafiados por los demás y están realmente comprometidos con la mejora de sí mismos y de quienes les rodean.
Actividades Principales:- Trabajar junto a Desarrolladores, Tech Leads y Arquitectos para construir soluciones que transformen la experiencia de los usuarios.
- Impactar en el núcleo del negocio mejorando la arquitectura existente o creando otras nuevas.
- Crear soluciones escalables y de alta disponibilidad, contribuir al diferencial clave de cada cliente.
- 6+ años de experiencia trabajando como Desarrollador (Ruby, Python, Java, JS, preferentemente).
- 5+ años de experiencia en Big Data (Cómodos con los temas de Big Data de las empresas como Governance, Metadata Management, Data Lineage, Impact Analysis, and Policy Enforcement).
- Competente en análisis, solución de problemas y resolución de problemas.
- Experiencia en la construcción de pipelines de datos para manejar grandes volúmenes de datos (ya sea aprovechando herramientas conocidas o hechas a medida).
- Nivel avanzado de inglés.
- Construcción de Data Lakes con arquitectura Lambda/Kappa/Delta.
- DataOps, particularmente creando y gestionando procesos de ingesta y procesamiento de datos batch y en tiempo real.
- Experiencia práctica en gestión de cargas de datos y calidad de datos.
- Modernización de almacenes de datos empresariales y entornos de inteligencia de negocio con herramientas de código abierto.
- Despliegue de soluciones de Big Data en la nube (Cloudera, AWS, GCP o Azure).
- Visualización de datos en tiempo real y análisis de series temporales con soluciones comerciales y de código abierto.
- Trabajo 100% remoto: trabaja desde tu casa o donde quieras.
- Compensación en USD o en tu moneda local, como prefieras, muy por encima de la media del mercado.
- Horarios flexibles.
- Licencias por mater/paternidad, vacaciones y días festivos nacionales pagos.
- Ambiente laboral multicultural e innovador, perfecto para hacer amigos, colaborar y aprender de las personas más talentosas del mundo.
- Oportunidades de crecimiento y desarrollo profesional a través de mentorías y entrenamientos.
¡Únete a nuestro equipo global!
#J-18808-LjbffrIngeniero/a de Datos AWS
Publicado hace 12 días
Trabajo visto
Descripción Del Trabajo
Company Description: BC Tecnologia
Job Description: ¿Te apasiona transformar datos en valor y trabajar en entornos cloud?
Únete a nuestro equipo y participa en la construcción de pipelines de datos que impulsan la toma de decisiones estratégicas.
Objetivo Del Cargo
Participar en el diseño, construcción y mantenimiento de pipelines de datos en entornos cloud, colaborando con equipos técnicos y de negocio para asegurar soluciones robustas y escalables.
Responsabilidades
- Diseñar y construir pipelines de datos en ambientes cloud (ideal AWS).
- Colaborar en la ingesta y transformación de datos desde diversas fuentes.
- Participar en proyectos de modernización de datos junto a un TL asignado.
- Implementar soluciones técnicas alineadas a la arquitectura definida.
- Traducir requerimientos de negocio en soluciones técnicas efectivas.
- Experiencia con herramientas de visualización (Power BI o Metabase).
- Manejo intermedio de Excel.
- Experiencia en proyectos de datos y pipelines.
- Experiencia en cloud computing (ideal AWS).
- Conocimiento de servicios como AWS Glue, Airflow, Redshift.
- Experiencia con SQL y/o NoSQL.
- Conocimientos en Python o Java.
- Experiencia en el rubro retail.
enviar cv a (email) Data Analyst Junior Producto & Negocio/Vitacura Puestos vacantes: Científica(o) de Datos (19295)
Las Condes, Santiago Metropolitan Region, Chile 2 days ago
Las Condes, Santiago Metropolitan Region, Chile 10 months ago
Ingeniero/a de Datos (Data Science + Back-end Python)Las Condes, Santiago Metropolitan Region, Chile 1 week ago
#J-18808-LjbffrSé el primero en saberlo
Acerca de lo último Ingeniero de datos Empleos en Chile !
Ingeniero/a de Datos Especialista en Azure
Publicado hace 11 días
Trabajo visto
Descripción Del Trabajo
Somos una empresa líder en servicios informáticos, con foco en soluciones de integración de datos, automatización e inteligencia de negocios. Nuestro sello es combinar alto nivel técnico con una cultura organizacional potente, centrada en las personas y su desarrollo. Valoramos la excelencia, pero también el bienestar y la colaboración. br>
¿Qué buscamos? < r>Estamos en búsqueda de un/a Ingeniero/a de Datos con experiencia en tecnologías Microsoft Azure, para sumarse a un proyecto estratégico de implementación de datamart cloud. Esta es una excelente oportunidad para integrarte a un equipo técnico multidisciplinario, con posibilidad de continuidad a largo plazo.
Responsabilidades del rol
• Diseñar e implementar procesos ETL/ELT usando Azure Data Factory. • Ingestar y procesar datos desde diversas fuentes hacia Azure Data Lake (raw → curated).
• Aplicar reglas de negocio, homologación de códigos y enriquecimiento de datos.
Requisitos técnicos: br>Importante: Certificado en Azure Data Engineer Associate DP-203. Cobertura: - Azure Data Factory (ADF) - Azure Synapse Analytics - Azure Data Lake Storage Gen2 - Modelado de datos analíticos. br>
Obligatorios:
• 3+ años de experiencia en integración de datos o BI.
• SQL avanzado y modelamiento dimensional. < r>• Manejo de datos estructurados y no estructurados. < r>
Deseables:
• Experiencia en banca, seguros o salud. < r>• Conocimientos de sistemas legacy (AS400, core). < r>• Power BI u otras herramientas de visualización.
¿Qué valoramos en ti? < r>• Rigurosidad técnica y compromiso con la calidad. • Autonomía para proponer mejoras y documentar procesos. • Mentalidad colaborativa y gusto por el trabajo en células ágiles.
Condiciones del proyecto
• Duración: 65 días hábiles (con posibilidad de extensión).
• Tipo de contrato: Boleta de honorarios.
• Jornada: Full-time o part-time, según disponibilidad y rol. • Modalidad: Remota con opción híbrida según requerimiento técnico.
br>¿Te interesa? br>Envía tu CV actualizado, indicando en el asunto “Ingeniero/a de Datos Azure – Proyecto Cloud”.
No encantará conocerte y ver cómo podrías aportar a nuestro equipo.
Ingeniero/a de Datos (Data Science + Back-end Python)
Ayer
Trabajo visto
Descripción Del Trabajo
En The Optimal somos una empresa líder en servicios tecnológicos innovadores, especializados en soluciones para la cadena logística del transporte de carga y pasajeros. Nuestra operación abarca países como Chile, Colombia, Ecuador y Perú, colaborando con las empresas más importantes del sector. Desarrollamos sistemas avanzados que integran ciencia y tecnología aplicadas a la recolección de datos, planificación, optimización, agendamiento, visualización y tracking, logrando una operación logística eficiente, limpia y de excelencia al servicio de la sociedad.
El equipo de tecnología está enfocado en construir herramientas SaaS robustas que soporten decisiones estratégicas mediante modelados predictivos, análisis complejos y automatización operativa. Buscamos sumar un Ingeniero/a Full-Stack de Datos capaz de combinar disciplinas de Data Science y Backend en Python para impulsar nuestros productos tecnológicos de alto impacto en la industria logística.
Responsabilidades principales- Diseñar y desarrollar servicios backend escalables y eficientes usando Python.
- Entrenar, validar y desplegar modelos predictivos de forecasting integrados en productos tecnológicos.
- Automatizar pipelines de datos y procesos de Machine Learning asegurando su correcta ejecución en producción.
- Gestionar la integración y manipulación de datos provenientes o dirigidos a bases de datos relacionales.
- Colaborar en las decisiones de arquitectura de software y prácticas de MLOps para asegurar escalabilidad y mantenimiento.
- Aplicar buenas prácticas de desarrollo, incluyendo pruebas automatizadas, versionado y documentación técnica exhaustiva.
El rol busca personas proactivas, con elevada responsabilidad en el cumplimiento de tareas, que trabajen en equipo y contribuyan con ideas y soluciones creativas para resolver los desafíos tecnológicos y de negocio.
Perfil y requisitos técnicosBuscamos profesionales con entre 2 y 4 años de experiencia combinando áreas de Data Science y desarrollo Backend, principalmente en Python. Es fundamental un dominio avanzado de Python tanto para modelado y desarrollo de soluciones de Machine Learning como para construcción de APIs y sistemas backend funcionales.
Se requieren conocimientos sólidos en bases de datos relacionales, sobre todo PostgreSQL y SQL, para la manipulación eficiente de grandes volúmenes de datos.
La experiencia con contenedores Docker y herramientas de integración continua (CI/CD) es necesaria.
El candidato ideal entiende los flujos de trabajo de Machine Learning en producción, incluyendo entrenamiento, validación, despliegue y monitoreo, y ha trabajado con tecnologías como DuckDB u otras orientadas al procesamiento avanzado de datos.
Conocimientos deseables incluyen manejo de servicios en la nube AWS (como S3 o EC2), modelado probabilístico y estructuras de datos complejas.
Además de habilidades técnicas, valoramos competencias blandas como atención al detalle, pensamiento crítico, comunicación efectiva, trabajo colaborativo, capacidad de aprendizaje continuo, proactividad y responsabilidad. El rol demanda creatividad para la resolución de problemas y una actitud orientada a la mejora continua, tanto en lo técnico como en procesos.
Habilidades y experiencias deseables- Valoramos experiencia previa trabajando con tecnologías AWS como S3 y EC2, que permitan gestionar almacenamiento y cómputo escalable.
- Conocimientos en modelado probabilístico aportan profundidad en la elaboración de modelos predictivos robustos frente a la incertidumbre.
- Experiencia en estructuras de datos avanzadas puede facilitar optimizaciones de algoritmos y gestión eficiente de grandes volúmenes de información.
- Se considerará positivamente experiencia en frameworks o herramientas modernas de MLOps que ayuden a automatizar el ciclo de vida de modelos de Machine Learning en producción.
- Ofrecemos jornada mixta con modalidad híbrida, combinando días en cowork y home office, ideal para un balance adecuado entre concentración y colaboración.
- El horario laboral es de lunes a viernes a tiempo completo.
- Podrás participar en proyectos desafiantes utilizando tecnologías de vanguardia, lo que favorece el desarrollo profesional y técnico continuo.
- Además, ofrecemos asignaciones por movilización y colación, cuidando la comodidad y bienestar de nuestro equipo.
INGENIERO MECÁNICO PARA BASE DE DATOS DE REEMPLAZOS HOSPITAL BASE VALDIVIA
Publicado hace 19 días
Trabajo visto
Descripción Del Trabajo
Horario de atención: Lunes a Viernes de 09:00 a 19:00 horas.
Importante: El día de hoy, jueves 10 de abril, entre las 19:00 y las 22:30 horas, el sistema podría experimentar intermitencias en el servicio de registro y actualización de datos personales. Le recomendamos realizar estas actualizaciones fuera del horario mencionado para evitar inconvenientes. Agradecemos su comprensión.
MinisterioMinisterio de Salud
Institución / EntidadServicio de Salud Los Ríos / Hospital Base de Valdivia
CargoINGENIERO MECÁNICO PARA BASE DE DATOS DE REEMPLAZOS HOSPITAL BASE VALDIVIA
Nº de Vacantes1
Área de TrabajoSalud
RegiónRegión de Los Ríos
CiudadValdivia
Tipo de VacanteSuplencia/Reemplazo
Perfil del Cargo Formación Educacional-Título Profesional de la carrera Ingeniero Mecánico o Automatización, otorgado por Institución reconocida por el Estado.
Mecanismo de PostulaciónLos postulantes deberán ingresar sus datos en la página de Hospital Base Valdivia, en el siguiente link:
Inscripción en Base de Datos de Reemplazos
Calendarización del ProcesoPostulación
Difusión y Plazo de Postulación: 10/12/2024 - 17/12/2024
Proceso de Evaluación y Selección del Postulante: 17/12/2024 - 20/12/2024
Finalización del Proceso: 23/12/2024 - 27/12/2024
El plazo para recibir postulaciones es hasta las 17:00 horas del 17/12/2024 .
Correo de Consultas URL donde se podrán obtener mayores antecedentes del procesoAviso Pizarrón: Es un tipo de publicación que no permite postular en línea, ya que el Portal de Empleos Públicos es utilizado sólo como medio complementario de difusión de la convocatoria y no como medio de postulación. En este contexto, esta publicación no contiene necesariamente toda la información del proceso, por lo que la persona interesada debe consultar mayores antecedentes directamente al Servicio Público responsable del aviso.
Las condiciones y contenidos especificados en esta publicación son determinados por el servicio público convocante. Asimismo, el desarrollo del proceso de selección es de su exclusiva responsabilidad.
En virtud de la entrada en vigencia de la ley N°21.389 (que crea el Registro Nacional de Deudores de Pensiones de Alimentos) y en el caso de ser contratada/o y/o nombrada/o en alguno de los cargos publicados en este portal, la institución contratante deberá consultar si usted posee una obligación pendiente en el mencionado Registro Nacional de Deudores de Pensiones de Alimentos, a efecto de proceder con las retenciones y pagos que correspondan. La persona que figure en el registro deberá autorizar como condición habilitante para su contratación/nombramiento, que la institución respectiva proceda a hacer las retenciones y pagos directamente al alimentario.
#J-18808-Ljbffr