Infomaniak integriert SMoE von Mixtral AI

Infomaniak AIaaS LLM Service / Weiterer Text über ots und www.presseportal.ch/de/nr/100057093 / Die Verwendung dieses Bildes für redaktionelle Zwecke ist unter Beachtung aller mitgeteilten Nutzungsbedingungen zulässig und dann auch honorarfrei. Veröffentlichung ausschließlich mit Bildrechte-Hinweis.
Infomaniak AIaaS LLM Service / Weiterer Text über ots und www.presseportal.ch/de/nr/100057093 / Die Verwendung dieses Bildes für redaktionelle Zwecke ist unter Beachtung aller mitgeteilten Nutzungsbedingungen zulässig und dann auch honorarfrei. Veröffentlichung ausschließlich mit Bildrechte-Hinweis.
Infomaniak AIaaS LLM Service / Weiterer Text über ots und www.presseportal.ch/de/nr/100057093 / Die Verwendung dieses Bildes für redaktionelle Zwecke ist unter Beachtung aller mitgeteilten Nutzungsbedingungen zulässig und dann auch honorarfrei. Veröffentlichung ausschließlich mit Bildrechte-Hinweis.
Infomaniak AIaaS LLM Service / Weiterer Text über ots und www.presseportal.ch/de/nr/100057093 / Die Verwendung dieses Bildes für redaktionelle Zwecke ist unter Beachtung aller mitgeteilten Nutzungsbedingungen zulässig und dann auch honorarfrei. Veröffentlichung ausschließlich mit Bildrechte-Hinweis.Bild: Infomaniak Network AG

Infomaniak positioniert sich als KI-Dienstleister für Betreiber eigener generativer KI-Applikationen. Dabei setzt der Anbieter auf das Argument Datenhoheit, wenn er Integrationen der französischen ChatGPT-Alternative Mixtral 8x7B anbietet. Dieses Sparse Mixture-of-Experts-Modell (SMoE) steht derzeit als Betavariante zur Verfügung und lässt sich per API integrieren. Das Modell soll bis zu 32.000 Token pro Prompt verarbeiten können, was die Modellierung, Klassifizierung und Analyse komplexer Daten sowie die Zusammenfassung, Umformulierung, Korrektur, Übersetzung und Generierung komplexer Texte erlauben soll.

www.infomaniak.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert