Softwareentwicklung

  • Ich habe über 10 Jahre Erfahrung als Python Entwickler
  • Ich entwickele robusten Code mit Hilfe von Versionskontrollsystemen und Test Driven Development.
  • Mein Code ist dokumentiert und entsprechend der Richtlinien formatiert.

Projekte aus diesem Bereich

  • Python Entwickler, Frontend und Backend
    2023 Universität Köln (CECAD Imaging Facility)

    Entwicklung eines Exporters für OMERO, eine Datenbank für biomedizinische Bilddaten

    Aufgaben:
    • Erweiterung des Open Source Kommandozeilentools omero-cli-transfer, um Forschungsdaten aus der OMERO Datenbank in ARC Repositories zu übertragen.
    • Entwicklung einer Mapping-Spezifikation für die Übertragung von OMERO-Projekten in ARC-Repositorien.
    • Erweiterung des Web Frontends von OMERO, um ARC Metadaten anzuzeigen und Datenexport zu steuern.
    • Dokumentation

    Werkzeuge:
    PythonOMEROPostgresDjangoGitGithub ActionsDockerPytest

  • Python Entwickler / Data Engineer
    2023 DekaBank

    Frontend und Backend Entwicklung einer Web Applikation für Portfolio Management.

    Aufgaben:
    • Frontend und Backend Entwicklung mit Python und Javascript
    • Design und Implementierung einer klassenbasierten Softwarearchitektur im Backend
    • Design des Datemodells (hybrider Ansatz, relational und Json basiert), Implementierung von Test-, Staging- and Produktionsdatenbank
    • Dokumentation
    • Setup einer Continuous Integration Pipeline (Paketinstallation, Unit Tests, Pep8 checks, automatisierter Build der Dokumnetation)
    • Arbeit innerhalb eines interdisziplinären Teams aus Finanzexperten, Softwareentwicklern und Analysten

    Werkzeuge:
    PythonPlotly DashPydanticMypySphinxGitlabPandasMssqlPytestJavascript

  • Python Entwickler / Data Engineer
    2022 DekaBank

    Frontend und Backend Entwicklung einr Business Intelligence Web App.

    Aufgaben:
    • Frontend und Backend Entwicklung
    • Entwicklung von Lösungen zum Zwischenspeichern von Daten zur schnellen Bereitstellung einer fragmentierten Datenbasis.
    • Handling und effektive Bereitstellung von Tabellen im Big Data Umfeld.
    • Entwicklung einer Business Intelligence Web App
    • Weiterentwicklung und Refaktorierung von Prototyp Skripten zu Produktionscode (Unit Tests, Continuous Integration...)
    • Arbeit innerhalb eines interdisziplinären Teams aus Finanzexperten, Softwareentwicklern und Analysten

    Werkzeuge:
    PythonGitlabPydanticMypyPlotly DashFlaskPandasMssqlMLflowPytestParquetJavascript

  • Data Scientist and Data Engineer
    2021 Mitteständisches Großhandels- und Logistikunternehmen

    Entwicklung von KI basierten Vorhersagemodellen

    Design und Implementierung eines KI basierten Modells zur Vorhersage von Verkaufszahlen und Produktprovisionierung.

    Aufgaben:
    • Konzeption eines Deep Learning Modells zur Vorhersage von Verkaufszahlen
    • Entwicklung von Datenmodellen und ETL Prozessen zur Vorverarbeitung der Rohdaten
    • Implementierung eines automatisierten Vorhersage Service basierend auf KI Modellen

    Werkzeuge:
    TensorflowPostgresMS SQL ServerPythonSqlalchemyAlembicDockerdocker-composegit

  • Data Engineer / Projektleitung
    2020 Forschungseinrichtung

    Konzeption und Implementierung einer Postgres Datenbank zum Datenmanagement einer Automationsanlage

    Eine Automationsanlage produziert Sensordaten verschiedener Art, die zusammen mit diversen Metadaten in mathematische Vorhersagemodelle eingespeist werden. Messdaten und Metadaten sollen zentral in einer SQL Datenbank gespeichert werden. Das Projekt erfordert engen Austausch mit Mitarbeitern die die Automationsanlage betreiben und die Daten auswerten. Das interdiszipläre Team besteht aus Biologen, Chemikern, Technikern und Datenanalysten und Softwareentwicklern.

    Aufgaben:
    • Projektmanagement
    • Entwicklung des Datenmodells in zahlreichen Workshops.
    • Erarbeitung der Import Spezifikationen in enger Zusammenarbeit mit den künftigen Nutzern.
    • Implementierung des Modells in Python/Sqlalchemy
    • Aufsetzen einer Postgres Testdatenbank mit docker-compose und Gitlab-CI
    • mplementierung von Importer Tools in Python.

    Werkzeuge:
    PostgresPythonSqlalchemyDockerdocker-composeGitlab-CI

  • Data Scientist / Python Entwickler
    2019

    Entwicklung einer Machine Learning Applikation zur Auswertung von Sensordaten.

    Über einen Sensor innerhalb einer Messapparatur werden stark verrauschte Zeitreihendaten aufgezeichnet. In diesen Zeitreihen sollen sporadisch auftretende Events automatisch detektiert und charakterisiert werden. Zu diesem Zweck wurde eine Machine Learning Software mit MVC Architektur in Python implementiert. Die Software umfasst folgende Funktionalität: Filtern und Normalisieren der Rohdaten, Berechnung robuster Kennzahlen auf Grundlage der vorprozessierten Daten, Bereitstellung einer grafischen Benutzeroberfläche zur Darstellung der Daten und zur interaktiven Erstellung von Trainingsdatensätzen, Automatische Detektion der Events mit einem überwachten Machine Learning Verfahren, Export der Ergebnisdaten.

    Werkzeuge:
    PythonTkinterScikit-Learngit

  • Python Entwickler / Projektleitung / Experte Bildverarbeitung
    2016

    Entwicklung von YAPiC einer Open Source Software zur Analyse von biomedizinischen Bilddaten mit Hilfe von Deep Learning.

    Aufgaben:
    • Projektmanagement
    • Konzeption und Algorithmenentwicklung
    • Präsentation der Software auf internationalen Tagungen
    • Deployment, Entwicklung von CI/CD Pipelines
    • Management der Weiterentwicklung des Tools durch die Open Source Community

    Werkzeuge:
    PythonTensorFlowTravis-CIGitHub

    YAPiC Website
  • Python Entwickler, DevOps
    2018

    Entwicklung einer parallelisierten Bildanalyse-Pipeline zur Verarbeitung massiver Bilddaten eines automatisierten Mikroskops.

    Eine Automationsanlage innerhalb eines pharmazeutischen Labors produziert täglich Bilddaten im Terabyte Bereich. Auf Gundlage der CellProfiler software wurde eine Objekterkennung und Feature Berechnung implementiert, um strukturierte Daten aus den rohen Bilddaten zu gewinnen. Zum robusten Deployment auf einem in-house betriebenen CPU cluster wurde die Anwendung mit Docker containerisiert und mit SLURM orchestriert.

    Aufgaben:
    • Definition der Spezifikationen in Zusammenarbeit mit den Domänen Experten
    • Planung und Anschaffung erforderlicher Hardware
    • Konzeption und Implementierung
    • Big Data handling

    Werkzeuge:
    PythonCellProfilerDockerSLURM