Interview: So wertet „MATERNA“ Deinen Code aus
Frank beantwortet unsere Fragen zur Auswertung des “Big Data Predictions” Programmierwettbewerbs
Frank aus der Abteilung Digital Transformation von „MATERNA“ hat uns ein paar Fragen zu der Auswertung Eurer Codes zum Big Data Predictions – Programmierwettbewerb beantwortet! Wenn Ihr ein paar spannende Einblicke in die Abläufe der Auswertung bekommen wollte, legen wir euch diese Interview ans Herz.
Hallo Frank, Du hast in den letzten Wochen die Codes zur Big Data Predictions ausgewertet. Erzähl den IT-Talenten und Lesern doch kurz etwas über Dich.
Wir helfen großen deutschen Firmen, Dienste nach ihren individuellen Anforderungen zu entwickeln und zu betreiben und sich so auf den Herausforderungen der digitalen Transformation zu stellen. Seit 11 Jahren sorge ich bei Materna als Principal Software Architect für mehr Qualität in der Software und kümmere mich als Gründungsmitglied des iSAQB, um eine verbesserte Ausbildung und Zertifizierung von Architekten.
Seit mehr als drei Jahrzehnten unterstützte ich Firmen bei der Umsetzung tragfähiger Software-Architekturen. Dabei führe ich externe Reviews und Architekturbewertungen als Gutachter durch. Dazu habe ich auch schon mehrere Fachartikel veröffentlicht und Vorträge gehalten.
Wie bist Du an die Auswertung herangegangen?
Zunächst habe ich mir einen Überblick über die Projektstruktur und die Dokumentation verschafft. Im Anschluss habe ich versucht, den Code zum Laufen zu bringen. Erst zum Schluss schaue ich mir den Code im Hinblick auf die Strukturierung und Best-Practices an.
Wie lange hast Du im Schnitt für eine Auswertung gebraucht?
1-2 h pro Programm inkl. Dokumentation der Ergebnisse und Bewertung
Vor welche Herausforderungen wurdest Du bei der Auswertung gestellt?
Leider waren einige Programme auch mit einigen Korrekturen nicht lauffähig, da die benötigten Abhängigkeiten nicht so schnell im Internet oder automatisch installiert werden konnten. Einige Funktionen waren fehlerhaft und nicht vollständig ausprogrammiert, sodass es sogar zu Abstürzen kam.
Dabei war die Qualität der Dokumentation sehr unterschiedlich. Von einer ultrakurzen README, über weitere Informationen zur Benutzung im Code, gab es auch Onlinekurzhilfen oder interaktive Ausführungsumgebungen (gerade bei Jupyter Notebooks mit Python), in denen sich erklärende Dokumentation, Code und Ergebnis abwechselten
Die Codes waren meistens schon nachvollziehbar, das Problem war eher das Setup und der Aufruf
Was ist Dir bei der Auswertung der Codes aufgefallen?
Von sehr viel Kompetenz und Engagement bis hin zu unvollständigen Lösungen war alles dabei. Die Siegerlösungen (meist mit Jupyter Notebooks und Python) hoben sich sowohl vom fachlichen (Datenauswertung und -qualitätssicherung), aber auch bei der technischen Auswertung und grafischen Darstellung deutlich vom restlichen Teilnehmerfeld ab.
Nach welchen Kriterien hast Du/habt Ihr ausgewertet?
Wichtig waren die grundsätzliche Ausführbarkeit und das Problemverständnis. Danach wurde nach dem Kano-Modell der Anforderungsanalysen nach Basis-, Leistungs- und Begeisterungs-Merkmalen beurteilt
Auf welche Skills wird in der IT-Fachabteilung bei „MATERNA“ besonders viel Wert gelegt?
Neben fundiertem Fachwissen, werden Soft- und Innovationsskills immer wichtiger, da unsere Projekte immer interdisziplinärer werden und dabei oft “Neuland” betreten ist auch ein gesunde Neugierde und Experimentierfreude wichtig. Bei den Softskills sind Kooperations- und Kommunikationsskills neben Moderations- und Coachingmethoden wichtig. Denn Softwareentwicklung ist Teamsport, was auch auf diesen Skills basiert!
Vor welche Herausforderung würdest Du die Talente bei der nächsten Code Competition stellen?
Am besten noch ein wenig mehr ML einsetzen, um vielleicht “überraschende” Zusammenhänge in den Daten zu erkennen.
Rückmeldungen