Erneuertes Build-System für ModuleStudio

in  Builds & Tests , , ,

Erneuertes Build-System für ModuleStudio

Die Komponenten von ModuleStudio werden nun mit anderen Technologien gebaut. Statt Buckminster wird jetzt das Maven-basierte Tycho eingesetzt. Die Jenkins-Jobs wurden auf Pipelines umgestellt und unterstützen somit nun mehrere Branches.

Tycho für Features in mehreren Repositories

Im ersten Schritt habe ich daran gearbeitet, die Builds lokal mit Tycho zum Laufen zu kriegen. Eine Herausforderung dabei war es, die Builds für alle Komponenten, die in unterschiedlichen Git-Repositories liegen, mit möglichst wenig Redundanz zu beschreiben. Dies funktioniert über eine gemeinsame Root-POM, die im zentralen Produkt-Repository liegt. Dieses muß ohnehin allen Builds zusätzlich zum Repository der jeweiligen Komponente bekannt gemacht werden, da das Branding-Bundle von allen Features benötigt wird.

<parent>
    <groupid>de.guite.modulestudio</groupid>
    <artifactid>de.guite.modulestudio.configuration</artifactid>
    <version>1.0.0-SNAPSHOT</version>
    <relativepath>../MostProduct/releng/de.guite.modulestudio.configuration/pom.xml</relativepath>
</parent>
<modules>
    <module>../MostProduct/releng/de.guite.modulestudio.target</module>
    <module>bundles</module>
    <module>features</module>
    <module>releng</module>
</modules>

Unterschiede zwischen lokalen Builds und Jenkins wurden in der Root-POM mit zwei verschiedenen Profilen abgebildet:

<profiles>
    <profile>
        <id>default</id>
        <activation>
            <activebydefault>true</activebydefault>
        </activation>
        <properties>
            ...
        </properties>
    </profile>
    <profile>
        <id>build-server</id>
        <activation>
            <property>
                <name>env.BUILD_NUMBER</name>
            </property>
        </activation>
        <properties>
            ...
        </properties>
    </profile>
</profiles>

Das Profil build-server wird automatisch aktiviert, sobald die Umgebungsvariable BUILD_NUMBER vorhanden ist. Dies erspart die manuelle Angabe des Profils beim Maven-Aufruf.

Die zweite Hürde bestand darin, dass manche Komponenten von anderen abhängen. Die entsprechenden Builds müssen also zusätzlich zur normalen Target-Plattform die benötigten P2-Repositories zur Verfügung gestellt bekommen. Glücklicherweise erlaubt Tycho die Kombination aus Target-Datei und Repositories. In den parent-POM der jeweiligen Komponente mußte ich also lediglich die benötigten Repositories deklarieren:

<repositories>
    <repository>
        <id>most-dsl</id>
        <url>file://${dsl.repository}</url>
        <layout>p2</layout>
    </repository>
    <repository>
        <id>most-generator</id>
        <url>file://${generator.repository}</url>
        <layout>p2</layout>
    </repository>
</repositories>

Pipelines in Jenkins

Als nächstes stand die Beschreibung der Jenkins-Jobs mittels Groovy-Skripten auf dem Programm: im Hauptverzeichnis eines GIt-Repositories wird eine Datei namens Jenkinsfile hinterlegt. Diese erlaubt dann die automatische Ausführung eines Jenkins-Jobs, was auch die Grundlage für die Multibranch-Funktionalität ist: Jenkins scannt alle Branches und erstellt für jeden Branch (oder Pull Request) einen einzelnen untergeordneten Job. Möchte man beispielsweise in einem Feature Branch eine zusätzliche Post-Build-Aktion durchführen, wird dies automatisch im entsprechenden Job reflektiert und damit genauso wie der eigentliche Code getestet.

Die sehr gute Dokumentation führt dazu, dass die eigentlichen Builds recht schnell funktionieren. Als etwas hakeliger haben sich die zusätzlichen Aktionen wie die Publikation unterschiedlicher Reports herausgestellt. Etwaige Einstiegshürden können hier aber mit dem in Jenkins integrierten Snippet Generator reduziert werden, mit dem man sich den Groovy-Code für unterschiedliche Aktionen generieren kann.

Nachdem der erste Job soweit funktioniert hat, ging es anschließend darum, die für alle Komponenten gemeinsamen Schritte auszulagern, um sie wiederverwenden zu können. So bleiben die Jenkinsfile-Dateien in den unterschiedlichen Repositories schlank und frei von unnötigen Redundanzen. Mein erster Versuch dahingehend hat sich damit beschäftigt, dass Jenkins ein eigenes Git Repository für eine globale Bibliothek von Groovy-Funktionen anbietet. Dieser Ansatz hat mich aber nicht zufrieden gestellt. Vor allem wollte ich nicht, dass die Groovy-Skripte ganz woanders liegen als die übrigen Build-Artefakte. Abhilfe hat hier das Pipeline Remote Loader Plugin gebracht: damit kann man die Groovy-Dateien dynamisch aus einem beliebigen Git-Repository laden. So konnte ich sie im zentralen Produkt-Repo unterbringen.

Das Ergebnis kann sich sehen lassen: die Jenkinsfile-Dateien sind nun schön schlank und Änderungen können weitgehend zentral durchgeführt werden.

Aktueller Stand

Die eigentlichen Builds laufen nun alle sowohl lokal als auch auf dem CI-Server. Es sind allerdings noch diverse kleinere Tasks offen, vor allem im Bereich Deployment. Auch bei den Tests ist noch Einiges zu tun, zum Beispiel die Parallelisierung der Testausführung.

Grundsätzlich ist die neue Architektur aber deutlich einfacher zu warten als zuvor. Dank der Pipeline-Skripte werden nun auch die Job-Konfigurationen von Jenkins mit in Git versioniert. Und mit der Multibranch-Funktionalität ist ein wichtiger Schritt gemacht, insbesondere in Bezug auf die Verarbeitung von Pull Requests. Nicht zuletzt hat die Umstellung auf Tycho dafür gesorgt, dass ein Problem beim Start der Mac-Version von ModuleStudio nun gelöst ist.

Mittelfristig werden die Pipelines auch beim Zikula-Core eingeführt werden. Update: das ist mittlerweile passert: https://github.com/zikula/core/blob/master/Jenkinsfile

Erneuertes Build-System für ModuleStudio

Weitere Beiträge in Kategorie Builds & Tests

Abhängigkeiten automatisch aktualisieren mit Renovate
- Um Dependencies aktuell zu halten, wird bei GitHub oft und gerne der Dependabot eingesetzt. Mit Renovate existiert allerdings eine äußerst flexible Alternative, die im Folgenden kurz vorgestellt wird. …
Symfony-Projekte im Monorepo mit Nx bauen
- Mit dem Build-System Nx lassen sich beliebige Projekte in einem Monorepo auf einheitliche Weise testen und bauen. Es bedient sich verschiedener npm-Plugins, um dies für unterschiedliche Technologien …
Abhängigkeiten automatisch aktualisieren mit Dependabot
- Vor knapp eineinhalb Jahren haben wir gezeigt, wie man die Aktualisierung verwendeter Drittkomponenten mit GitHub Actions automatisieren kann. Zwischenzeitlich sind wir hierbei auf den Dependabot …
Hugo-Seiten im Netzwerk entwickeln und testen
- Hugo ist ein Generator für statische Seiten, welcher auf der Programmiersprache Go basiert. Die Inhalte werden mit Markdown verwaltet und dynamisch in HTML umgewandelt. Dies ist für die meisten …
SensioLabs Security Checker wurde eingestellt
- Zu den grundlegenden Aufgaben automatisierter Builds zählen unterschiedliche Prüfungen: so bietet es sich an, die Einhaltung der Coding-Styles zu überwachen, Qualitätsmetriken zu erheben und die …