Hallo Allerseits,
ich habe jetzt lange mit Grommunio experimentiert. Mein Ziel ist es unsere Exchange-Landschaft mit ca. 600 Postfächern abzulösen.
Die Datenbank soll auf unserem Maxscale-Cluster liegen und die Datenhaltung über ein gemeinsames Storage abgwickelt werden.
Alle Server werden als VM auf einem 5-Node-Proxmox-Cluster mit Ceph betrieben.
Leider scheitert die Installation meistens an der Verschlüsselung zu unserem DB-Cluster.
Mit einer manuellen Installation auf Debian kann man diese zumindest ein Stück weit umgehen. Dazu habe ich einen weiteren Listener aufgemacht der nur unverschlüsselte Verbindungen annimmt.
Was aber kein Standardport ist, woran wiederum die Appliance als auch die Docker-Installation scheitern weil die Ports nicht geändert werden können. Zumindest habe ich keinen Weg gefunden.
Ein Fix für SSL ist wohl in Arbeit.
Eine weitere Hürde ist das die Domain- und User-Daten in sqlite-Dateien gespeichert werden. Wie sich herausstellte ist es wohl keine gute Idee sqlite über NFS bereit zustellen.
Es funktioniert auch wirklich nicht gut. Schon bei einem einzelnen Nutzer rennt der nginx oft in ein 504-Fehler.
NFS wird hier über ein Freigabe-Cluster bereit gestellt welches ein CephFs als NFS quasi weiterleitet. Nebenbei, mit Odoo und Nextcloud funktioniert das alles problemlos seit Jahren (Webfrontend und Daten über NFS).
Jetzt bin ich in der Dokumentation bei "Multi-Server Architecture" -> "Shared Storage" angekommen.
Mir ist nicht ganz klar wie das funktioniert. Werden alle Daten auf jeden Server gesynct? Ansonsten ist doch wohl kaum ein Failover möglich. Oder ist diese konfiguration nur als Load-Balancing gedacht?
Ich bin jetzt irgendwie am Ende mit meinen Ideen. Auch "Ceph Proxy" https://charmhub.io/ceph-proxy/configurations kam mir den Sinn, aber dazu konnte leider keinerlei Erfahrungsberichte finden.
Hat einer von euch vielleicht eine Idee wie das umgesetzt werden könnte, auch gerne absurde ;-).
Eine Anmerkung noch: Ich hatte bei Grommunio zwei mal um Support gebeten. Nach dem ersten mal bekam ich einen Anruf das sich ein Partner bei uns melden würde der sich mit derartigen Installationen auskennt.
Das ist nicht passiert. Ein zweite Anfrage blieb dann völlig unbeantwortet. Schade.
VG
aus dem Norden
##########################
Hello everyone,
I have been experimenting with Grommunio for a long time now. My goal is to replace our Exchange landscape with approx. 600 mailboxes.
The database is to be located on our Maxscale cluster and data storage is to be handled via shared storage.
All servers are operated as VMs on a 5-node Proxmox cluster with Ceph.
Unfortunately, the installation usually fails due to the encryption to our DB cluster.
With a manual installation on Debian, this can at least be circumvented to some extent. For this purpose, I have opened another listener that only accepts unencrypted connections.
However, this is not a standard port, which in turn causes both the appliance and the Docker installation to fail because the ports cannot be changed. At least I have not found a way.
A fix for SSL is probably in the works.
Another hurdle is that the domain and user data is stored in sqlite files. As it turned out, it is probably not a good idea to provide sqlite via NFS.
It really doesn't work well either. Even with a single user, nginx often runs into a 504 error.
NFS is made available here via a share cluster, which virtually forwards a CephFs as NFS. By the way, with Odoo and Nextcloud this has all worked without any problems for years (web frontend and data via NFS).
Now I have arrived at “Multi-Server Architecture” -> “Shared Storage” in the documentation.
It is not quite clear to me how this works. Is all data synced to each server? Otherwise a failover is hardly possible. Or is this configuration only intended as load balancing?
I'm kind of at the end of my ideas now. Ceph Proxy” https://charmhub.io/ceph-proxy/configurations also came to mind, but unfortunately I couldn't find any experience reports on this.
Do any of you have any ideas on how this could be implemented, even absurd ones ;-).
One more note: I asked Grommunio for support twice. After the first time I got a call that a partner would contact us who is familiar with such installations.
This did not happen. A second request then went completely unanswered. Too bad.
VG
from the north
(translated with DeepL Free)