Stellenbeschreibung Sie sind auf der Suche nach mehr als nur einem Job - Sie möchten einen Ort finden, an dem Ihre Fähigkeiten nicht nur gefragt, sondern auch wertgeschätzt werden?
Stellenbeschreibung Wir suchen für ein Unternehmen aus der Energiebranche für den Standort Helmstedt einen Project Manager Energy Data & Processes (m/w/d) in Teilzeit befristet bis zum 01.02.2027, Übernahme/ Verlängerung möglich Aufgaben: Eigenverantwortliche und selbstständige Aufbereitung, Prüfung und Plausibilisierung von Blindleistungsdaten sowie Klärung von Abweichungen und Meldungen mit externen Anbietern Unterstützung und Bereitschaft zur Ausführung der marktgestützten Blindleistungsbeschaffung mit Fokus auf abrechnungsrelevanten Daten, Fristenmanagement und Prozesskoordination Verantwortung für und Durchführung der Abrechnung der Blindleistungsbereitstellung gegenüber Netzbetreibern inkl.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B.
B. in Bezug auf Prozessabbildung oder Datenstrukturen) sind wünschenswertUnd vor allem: Sie passen menschlich gut zu uns, bringen Teamgeist mit und begeistern sich für datengetriebene Lösungen.Gestaltungsspielraum: Freuen Sie sich auf eine abwechslungsreiche und verantwortungsvolle Herausforderung, bei der Sie eigene Ideen einbringen und umsetzen können.Ein tolles Team: Arbeiten Sie in einem hochmotivierten Team mit viel Know-How und starkem Wir-Gefühl, das gemeinsam Großes erreicht.Ihre Stärken zählen: Wir suchen leidenschaftliche Persönlichkeiten mit Potenzial. Fachliches Wissen vermitteln wir Ihnen gerne, damit Sie Ihre Stärken voll entfalten können.Weiterentwicklung: Wir unterstützen Sie dabei, Ihre beruflichen Ziele zu erreichen und Ihr Potenzial voll auszuschöpfen.
Denn gute Organisation beginnt nicht nur im Heft – sondern auch im Team. Für unseren Standort in Hannover oder Burgwedel suchen wir zum nächstmöglichen Zeitpunkt einen Supply Chain Logistics Data Analyst (m/w/d). Deine Aufgaben In dieser Position bist du die analytische Schnittstelle zwischen Logistik, IT, Operations und externen Logistikdienstleistern.
Wir erwarten Sie – mit vielseitigen Aufgaben, engagierten Kolleg:innen, hoher sozialer Verantwortung und einem gemeinsamen Ziel – mutig und tatkräftig, mit Optimismus und Leidenschaft.. Auf der Suche nach neuen Herausforderungen? Machen Sie mit uns den nächsten beruflichen Schritt und bewerben Sie sich jetzt als BI und Data Analyst (m/w/d) im Controlling für den Standort Planegg bei München.
Wir suchen aktuell: Business/Data Analyst im Bereich Digitalisierung (m/w/d) in Böblingen Im Rahmen einer Arbeitnehmerüberlassung, suchen wir schnellstmöglich einen Business/Data Analyst im Bereich Digitalisierung (m/w/d) für den Standort Stuttgart.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
What makes you stand out You hold a degree in Business Informatics, Data Science, Computer Science, Industrial Engineering, Business Administration, or a comparable field.You have several years of experience in building, operating, or further developing data‑driven products—ideally in a sales, marketing, or customer service context.You have solid knowledge in designing and developing cloud‑based data products such as data warehouses, semantic layers, analytical models, and reporting and analytics solutions.You possess strong knowledge of data architectures, data engineering, data science, and data governance.You bring experience in leading interdisciplinary teams both functionally and disciplinarily—ideally including Data Engineers, Data Scientists, Product Owners, and Data Governance roles.You demonstrate strong analytical and conceptual thinking skills and the ability to prepare complex topics in a structured and understandable way.You communicate effectively and are able to bridge different target groups (business & tech).You work with strong execution and results orientation while ensuring high data quality.You have excellent German and English skills, both written and spoken.
Im Jahr 2023 hat die hagebau einen Umsatz von etwa 6,56 Milliarden Euro erzielt. Für unsere Zentrale in Soltau und anteilig im Mobile Office suchen wir Dich ab sofort auf 20 Std.-Basis als Werkstudent (m/w/d) im Bereich Master Data Management.Du bist eingeschriebener Student und möchtest praktische Erfahrung im spannenden Bereich Master Data Management sammelnMit etwa 20 Stunden pro Woche möchtest Du aktiv unser Team unterstützenDie Analyse komplexer Datenmengen bereitet Dir Freude, und Du gehst Aufgaben mit einer strukturierten, lösungsorientierten und zuverlässigen Arbeitsweise anDu interessierst dich für neue Technologien und bist motiviert, Dich in innovative Systeme einzuarbeitenErste Erfahrungen mit PIM- oder MAM-Systemen sind ein Plus, aber kein Muss – wir freuen uns darauf, Dich einzuarbeiten!
Work with consolidation units, FS items, subitems, versions, and the ACDOCU table structure Support both periodic and year-to-date reporting activities Create and configure GRDC forms using the Manage Forms application Maintain and optimize forms to ensure accurate and efficient data collection Create and manage packages via the Manage Package app Define package steps, assign forms or folders, and configure data-entry context for users Design and maintain validation rules, ensuring proper behavior in the Data Monitor Use the Reported Data Validation task to resolve reported-data issues Manage visual and backend controls to ensure consistent data quality Understand GRDC data integration with ACDOCU and Group Reporting Work with Data Monitor task sequences such as Calculate Net Income Strong understanding of Group Reporting concepts and ACDOCU structure Experience with periodic vs. YTD reporting Hands-on experience in GRDC form design (Manage Forms) Experience with Package Management (Manage Package app) Ability to design validation rules and manage controls in the Data Monitor Solid understanding of GRDC ?
Work with consolidation units, FS items, subitems, versions, and the ACDOCU table structureSupport both periodic and year-to-date reporting activitiesCreate and configure GRDC forms using the Manage Forms applicationMaintain and optimize forms to ensure accurate and efficient data collectionCreate and manage packages via the Manage Package appDefine package steps, assign forms or folders, and configure data-entry context for usersDesign and maintain validation rules, ensuring proper behavior in the Data MonitorUse the Reported Data Validation task to resolve reported-data issuesManage visual and backend controls to ensure consistent data qualityUnderstand GRDC data integration with ACDOCU and Group ReportingWork with Data Monitor task sequences such as Calculate Net Income Strong understanding of Group Reporting concepts and ACDOCU structureExperience with periodic vs. YTD reportingHands-on experience in GRDC form design (Manage Forms)Experience with Package Management (Manage Package app)Ability to design validation rules and manage controls in the Data MonitorSolid understanding of GRDC ?
Working in an interdisciplinary team of engineers to develop and improve designs and manufacturing processes for thick film sensors Improve and maintain the data infrastructure and pipeline for production and process control data from various sources and ensure timely data availability Act as a technical interface between R&D and Production and between various R&D departments to harmonize data handling and standards Improve and maintain data visualization tools (dashboards, interactive charts) and support in routine data analysis Support in defining and improving image analysis methods and tools to derive quantitative feature values from images Extend the data infrastructure with additional information, e.g. from sensor performance characterization Data driven improvements of manufacturing processes Completed technical training in process engineering, data science, bioinformatics, or similar professional education Professional experience in industrial R&D or manufacturing environment, ideally in the medical device industry or a comparable regulated environment Experience in building and maintaining data pipelines (ETL processes) from diverse sources such as SQL databases, CSV, and machine log files Ability to create interactive dashboards and visualization tools with a solid understanding of applied statistics (e.g. correlation analysis, cluster analysis) to support the development teams Skills in digital image processing, object-oriented programming (OOP) in Python, and knowledge of SQL are a strong advantage, adding significant value to this opportunity Good communication skills in a multicultural and multidisciplinary environment A thorough way of working and documentation Motivated team player with passion in promoting and driving fast-paced and ambitious projects Aptitude to understand and improve the underlying technical processes Proficiency in both English and German Unlimited project contract Fascinating, innovative environment in an international atmosphere Ihr Kontakt Ansprechpartner Jannik Fabio Eichin Referenznummer 865639/1 Kontakt aufnehmen E-Mail: jannik.eichin@hays.ch Anstellungsart Freiberuflich für ein Projekt
Für unseren Kunden, einen international tätigen Technologiekonzern, suchen wir im Rahmen einer Arbeitnehmerüberlassung zum nächstmöglichen Zeitpunkt einen Senior SAP MDG M Functional Consultant (m/w/d) PLM & Data Governance für den Standort Mühlheim.
Desirable knowledge in Java/.net. Knowledge of security protocols and devices such as stateful firewall, IPS, VPN, IPSec, TLS and L2-4 security. Strong initiative and hands-on mentality Strong communication and teamwork skills paired with intercultural competence.
Desirable knowledge in Java/.net. Knowledge of security protocols and devices such as stateful firewall, IPS, VPN, IPSec, TLS and L2-4 security. Strong initiative and hands-on mentality Strong communication and teamwork skills paired with intercultural competence.
Data Center Advisory Lead (m/f/d) JLL Germany Wir sind ein schnell wachsendes, global vernetztes Data-Center-Unternehmen mit EMEA-weiter Präsenz. Aufgrund unseres rasanten Wachstums suchen wir eine engagierte und erfahrene Leitung für unser Data-Center-Geschäft in Deutschland. Diese verantwortungsvolle Position mit Umsatzverantwortung umfasst die Weiterentwicklung des JLL-Data-Center-Geschäfts in Deutschland mit einem beratungsorientierten Ansatz.
Working in an interdisciplinary team of engineers to develop and improve designs and manufacturing processes for thick film sensorsImprove and maintain the data infrastructure and pipeline for production and process control data from various sources and ensure timely data availabilityAct as a technical interface between R&D and Production and between various R&D departments to harmonize data handling and standardsImprove and maintain data visualization tools (dashboards, interactive charts) and support in routine data analysisSupport in defining and improving image analysis methods and tools to derive quantitative feature values from imagesExtend the data infrastructure with additional information, e.g. from sensor performance characterizationData driven improvements of manufacturing processes Completed technical training in process engineering, data science, bioinformatics, or similar professional educationProfessional experience in industrial R&D or manufacturing environment, ideally in the medical device industry or a comparable regulated environmentExperience in building and maintaining data pipelines (ETL processes) from diverse sources such as SQL databases, CSV, and machine log filesAbility to create interactive dashboards and visualization tools with a solid understanding of applied statistics (e.g. correlation analysis, cluster analysis) to support the development teamsSkills in digital image processing, object-oriented programming (OOP) in Python, and knowledge of SQL are a strong advantage, adding significant value to this opportunityGood communication skills in a multicultural and multidisciplinary environment A thorough way of working and documentationMotivated team player with passion in promoting and driving fast-paced and ambitious projectsAptitude to understand and improve the underlying technical processesProficiency in both English and German Unlimited project contractFascinating, innovative environment in an international atmosphere Ihr Kontakt Ansprechpartner Jannik Fabio Eichin Referenznummer 865639/1 Kontakt aufnehmen E-Mail: jannik.eichin@hays.ch Anstellungsart Freiberuflich für ein Projekt
Clinical Data Manager (IRT) (m/w/d) in Vollzeit Klinische Studien HIER WERDEN SIE ARBEITEN: Sie sind auf der Suche nach einer neuen beruflichen Herausforderung? Dann sind Sie bei uns genau richtig. Als Personalexperten unterstützen wir verschiedene Firmen bei der Suche nach passenden Fach- und Führungskräften (m/w/d) und stehen Ihnen als Karriereberater zur Seite.
Auf den Veranstaltungen und Schulungen von Fach- und Führungskräften suchen wir den Austausch von Expertise, um neue Ideen zu entwickeln und Kontakte zu knüpfen. Lehre – Für die Studierenden der RWTH Aachen bieten wir Vorlesungen und Projektmodule an.
Design and implement a SQL-based landing zone for regulatory data Develop stored procedures for transformation, enrichment, and aggregation Build and operate high-volume batch processing chains for monthly/quarterly cycles Implement SSIS-based ingestion flows and job orchestration Ensure data quality, technical lineage, and full traceability across layers Define and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templates Perform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQL Hands-on experience with stored-procedure-driven ETL and complex data models Solid SSIS skills for orchestration and control of processing chains Experience with batch processing, logging, restartability, and performance tuning Knowledge of data lineage, reconciliation, and regulatory processing needs Experience with reporting platforms such as Tagetik is a plus Familiarity with Oracle source systems is advantageous Renowned Client Remote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
AbschlussarbeitenSie leisten einen aktiven Beitrag zur universitären Selbstverwaltung Wen suchen wir? Voraussetzung für die Einstellung ist ein abgeschlossenes wissenschaftliches Hochschulstudium im Bereich Umweltplanung, Landschaftsplanung, Umweltwissenschaften, Geographie, Geoinformatik, Meteorologie, Geoökologie oder verwandten Bereichen.
Design and implement a SQL-based landing zone for regulatory dataDevelop stored procedures for transformation, enrichment, and aggregationBuild and operate high-volume batch processing chains for monthly/quarterly cyclesImplement SSIS-based ingestion flows and job orchestrationEnsure data quality, technical lineage, and full traceability across layersDefine and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templatesPerform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQLHands-on experience with stored-procedure-driven ETL and complex data modelsSolid SSIS skills for orchestration and control of processing chainsExperience with batch processing, logging, restartability, and performance tuningKnowledge of data lineage, reconciliation, and regulatory processing needsExperience with reporting platforms such as Tagetik is a plusFamiliarity with Oracle source systems is advantageous Renowned ClientRemote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Mit mehr als 3.000 Mitarbeitenden schaffen wir Lösungen, die den Fortschritt in Präanalytik und Life Sciences entscheidend vorantreiben, um die Behandlungsqualität für die Patienten zu steigern und Standards in der Wissenschaft zu setzen. Für unseren Hauptstandort in Nümbrecht-Rommelsdorf suchen wir für den Bereich IT-Applikation zum nächstmöglichen Zeitpunkt einen (m/w/d) Data Engineer / BI Developer Zu den Aufgaben gehören: Konzeption, Entwicklung und Optimierung von Datenarchitekturen und Datenmodellen zur Unterstützung geschäftskritischer Prozesse Implementierung und Pflege von Analysemodellen und Dashboards in Qlik (Sense) Entwicklung und Optimierung von Schnittstellen zwischen SAP-Modulen (z.
Auf den Veranstaltungen und Schulungen von Fach- und Führungskräften suchen wir den Austausch von Expertise, um neue Ideen zu entwickeln und Kontakte zu knüpfen. Lehre – Für die Studierenden der RWTH Aachen bieten wir Vorlesungen und Projektmodule an.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Prepare and structure topics, requirements, and stakeholder requests Answer stakeholder questions and create clear, reliable documentation Support and drive new projects from concept phase to implementation Manage and refine incoming requests via the team’s ticketing workflow Derive and define development tasks based on business and data needs Analyze data flows and assess the impact of changes on existing data deliverables Evaluate new data sources and identify opportunities for process optimization Ensure transparency and quality of KPIs and financial data Who you are: 1+ years of experience in a Technical Business Analyst, Data, or similar role Hands-on mentality and strong willingness to learn Experience working with data and IT systems Solid SQL skills (BigQuery is a plus) Understanding of data structures and data flows Basic programming knowledge is a nice to have Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
•Ability to work successfully in a global team environment •Ability to work in a multi-functional and multi-cultural environment where consensus is paramount •Strong verbal and written communication skills with the ability to articulate complex ideas in easy to understand business terms to senior leaders •Strong collaboration and partnering skills: Ability to accomplish results through others, particularly by establishing relationships with partners •Experience of indirect management – managing by influence as opposed to positional authority. •Experience with technical writing, such as authoring/co-authoring structured technical design WHAT IS THE PLUS POINT(S) •ITIL Foundation Certification •Knowledge in Architecture frameworks like TOGAF will be highly regarded •Object-oriented/object function scripting languages such as Python, Java, C++, etc.
The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
•Ability to work successfully in a global team environment •Ability to work in a multi-functional and multi-cultural environment where consensus is paramount •Strong verbal and written communication skills with the ability to articulate complex ideas in easy to understand business terms to senior leaders •Strong collaboration and partnering skills: Ability to accomplish results through others, particularly by establishing relationships with partners •Experience of indirect management – managing by influence as opposed to positional authority. •Experience with technical writing, such as authoring/co-authoring structured technical design WHAT IS THE PLUS POINT(S) •ITIL Foundation Certification •Knowledge in Architecture frameworks like TOGAF will be highly regarded •Object-oriented/object function scripting languages such as Python, Java, C++, etc.
YOUR NEW CHALLENGE You lead the sale of FoodChain ID services across key customers and prospects in the DACH region You are responsible for developing and maintaining high value customer relationships and for acquisition of customers and prospect businesses to maximize the opportunity You actively cooperate with internal stakeholders to guide in the development of strategic plans You provide “Voice of the Client” feedback on market needs and company service delivery WHAT TO BRING Some years of experience as a Key Account Manager in B2B sales in the DACH region, selling products that require explanation (preferably digital services) to big and medium sized food companies You are preferably knowledgeable in quality subjects, such as Food Safety, Testing and Certification You bring experience in managing complex customers and a network of decision makers as a plus You are a “hunter” personality with strong communication and negotiation skills, able to understand your customer needs, open-minded as well as with a proactive approach, self-confidence and resilience THE OFFER FOR YOU FoodChain ID relies on personal responsibility and ownership.
Um unsere Prozesse, Systeme und Geschäftsmodelle zukunftsfähig zu gestalten, suchen wir dich für unser Digitalisierungsteam. Wir treiben die digitale Transformation im Unternehmen voran - von der Automatisierung interner Abläufe bis hin zu datenbasierte Entscheidungen
Um unsere Prozesse, Systeme und Geschäftsmodelle zukunftsfähig zu gestalten, suchen wir dich für unser Digitalisierungsteam. Wir treiben die digitale Transformation im Unternehmen voran - von der Automatisierung interner Abläufe bis hin zu datenbasierte Entscheidungen
Um unsere Prozesse, Systeme und Geschäftsmodelle zukunftsfähig zu gestalten, suchen wir dich für unser Digitalisierungsteam. Wir treiben die digitale Transformation im Unternehmen voran - von der Automatisierung interner Abläufe bis hin zu datenbasierte Entscheidungen
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least seven years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Benefits Hybrid working Täglich frisches Obst Sportkurse Freier Zutritt zur code.talks Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Kostenloser Laracasts Account Company Events Relocation Unterstützung Mobilitätszuschlag State-of-the-art Technologien Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least two years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
Wir suchen zum 01.08.2026 dual Studierende (m/w/d) für den Studiengang Wirtschaftsingenieurwesen. Inhalte der Ausbildung: Der duale Studiengang Wirtschaftsingenieurwesen Maschinenbau verbindet technisches Ingenieurwissen mit betriebswirtschaftlichem Know-how und bereitet Dich auf vielseitige Aufgaben an der Schnittstelle zwischen Technik, Produktion und Management vor.
Main Tasks and Responsibilities Continuous monitoring of all critical data center infrastructures (power, cooling, electricity, fire protection) Conducting regular inspection rounds and documenting system statuses Responding to alarms and fault messages according to established procedures Performing initial diagnostics for technical problems and initiating appropriate measures Documentation of all incidents, measures, and completed work Support with planned maintenance work and infrastructure projects Ensuring compliance with security guidelines and access controls Communication with customers and external service providers during on-site deployments Processing support requests during the shift Handover of relevant information to subsequent shift teams Requirements Profile Completed training in a technical profession (electrical engineering, IT systems electronics, mechatronics or comparable) Ideally first experience in data center environments or IT infrastructure Basic knowledge in power supply, climate technology, and network technology Understanding of the importance of critical infrastructure and its high availability Technical problem-solving understanding and methodical approach Fluent in German good English Team player with independent working style Resilience and ability to act calmly in emergency situations Basic knowledge in the use of DCIM and ticketing systems Additional Desirable Qualifications Initial experience with data center components such as UPS, HVAC systems, generators Basic knowledge of server and network hardware Understanding of security and compliance requirements in data centers Knowledge of MS Office and monitoring tools Class B driving license Working Environment Shift work according to shift schedule (early/late/night) State-of-the-art data center environment with strict security and quality standards Team-oriented work in a technically demanding environment Opportunity for continuous education and professional development Responsible position with direct influence on the operational security of critical IT infrastructure Additional Information Orientation: Comprehensive training on all systems and emergency procedures Location: On-site –Schwalbach, DEU If this job description resonates with you, we encourage you to apply even if you don’t meet all of the requirements.
Für die GEFA BANK als Arbeitgeber sind Werte wie Verantwortung und Nachhaltigkeit ebenso wichtig wie Innovationskraft und Weiterentwicklung. Wir suchen Sie! Wir suchen zum nächstmöglichen Zeitpunkt für unser Team einen Datenqualitätsmanager Finance (w/m/*) für unsere Abteilung Finanzen in der Zentrale in Wuppertal.
Wir suchen aktuell: Senior Business Expert in Finance Analytics (w/m/d) – Team Member/ Overhead Reporting in Stuttgart Im Rahmen einer Arbeitnehmerüberlassung, suchen wir schnellstmöglich einen Overhead/ Reporting für den Standort Stuttgart.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt mehrere Software Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt mehrere Software Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Außerdem hast du die Möglichkeit, bis zu drei Monate in einer unserer Tochtergesellschaften weltweit zu verbringen. Was wir suchen Abitur oder FH-Reife mit bestandenem Studierfähigkeitstest der DHBW Sehr gute schulische Leistungen, v.a. in Mathematik und Englisch Hohes Interesse an betriebswirtschaftlichen Zusammenhängen und IT-Themen Gutes analytisch-logisches Verständnis und Kommunikationsstärke Motivierter, gut organisierter Teamplayer, der Ideen gerne in die Praxis umsetzt und strukturiert auf seine Ziele hinarbeitet Was wir bieten Deine Studienvergütung: 1.267 € (1.Sj.), 1.445 € (2.Sj.), 1.711 € (3.Sj.) sowie weitere Sonderzahlungen Aktiv geförderte Work-Life-Balance, z.B. mit Sport- und Fitnessprogramm Umfangreiches Weiterbildungsangebot u.a. im internationalen Umfeld Frühe Verantwortungsübernahme und spannende Aufgaben mit großem Gestaltungsspielraum Moderne und familiäre Unternehmenskultur Haben wir dich überzeugt?
The Global Biostatistics (Data Sciences, Safety & Medical) team at IQVIA are experienced in submissions for all major regions; working together with key groups such as, Global Regulatory Affairs, Safety, Project and Data Management, and Medical Writing, to drive efficiency and accountability.
In addition, our online learning platform gives you access to a wide range of training courses and seminars.Well taken care of: You benefit from comprehensive social benefits such as a company pension scheme, Christmas gifts for employees’ children, employee gifts, a company cafeteria offering healthy meal options, and various employee discounts.Stay fit: We offer a variety of programs to support your health and well-being, including Wellpass, our Vital Workshop, and company sports groups.Health services: For health-related matters, you can consult our on-site occupational physicians and medical staff, as well as use our Orthopaedics Express Service.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt einen Test Automation Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Dann sind Sie bei uns genau RICHTIG! Für unseren Kunden am Standort Dresden suchen wir zum nächstmöglichen Zeitpunkt einen Test Automation Engineer (m/w/d) (8DAX1 R&D SW Platform Core & Data Services) im Rahmen der Arbeitnehmerüberlassung.
Nice to Have: Certifications: Microsoft Power Platform certifications, such as Power Apps Developer or Power Automate Developer. Experience with other technologies: Familiarity with other low-code development platforms, such as Salesforce or Google App Maker.
Außerdem hast du die Möglichkeit, bis zu drei Monate in einer unserer Tochtergesellschaften weltweit zu verbringen. Was wir suchen Abitur oder FH-Reife mit bestandenem Studierfähigkeitstest der DHBW Sehr gute schulische Leistungen, v.a. in Mathematik und Englisch Hohes Interesse an betriebswirtschaftlichen Zusammenhängen und IT-Themen Gutes analytisch-logisches Verständnis und Kommunikationsstärke Motivierter, gut organisierter Teamplayer, der Ideen gerne in die Praxis umsetzt und strukturiert auf seine Ziele hinarbeitet Was wir bieten Deine Studienvergütung: 1.267,50 € (1.Sj.), 1.445,00 € (2.Sj.), 1.711,50 € (3.Sj.) sowie weitere Sonderzahlungen Aktiv geförderte Work-Life-Balance, z.B. mit Sport- und Fitnessprogramm Umfangreiches Weiterbildungsangebot u.a. im internationalen Umfeld Frühe Verantwortungsübernahme und spannende Aufgaben mit großem Gestaltungsspielraum Moderne und familiäre Unternehmenskultur Haben wir dich überzeugt?
Studiengänge Einsatzbereich | Praktikum/Abschlussarbeit im Bereich Data Science Dauer | 6 Monate Bestens gefordert | Wir suchen einen engagierten und motivierten Studierenden (m/w/d) für eine Masterarbeit zum Thema "Magnetlager in Pumpen - State of the Art".