Infomaniak positioniert sich als KI-Dienstleister für Betreiber eigener generativer KI-Applikationen. Dabei setzt der Anbieter auf das Argument Datenhoheit, wenn er Integrationen der französischen ChatGPT-Alternative Mixtral 8x7B anbietet. Dieses Sparse Mixture-of-Experts-Modell (SMoE) steht derzeit als Betavariante zur Verfügung und lässt sich per API integrieren. Das Modell soll bis zu 32.000 Token pro Prompt verarbeiten können, was die Modellierung, Klassifizierung und Analyse komplexer Daten sowie die Zusammenfassung, Umformulierung, Korrektur, Übersetzung und Generierung komplexer Texte erlauben soll.
www.infomaniak.com