Fünf Technologietrends für das kommende Jahr

„Die transformative Wirkung von Technologie ist in den letzten Monaten deutlicher denn je geworden. Generative KI ist das beste Beispiel dafür, aber bei weitem nicht das einzige“, sagt Pascal Brier, Chief Innovation Officer bei Capgemini und Mitglied des Group Executive Committee. „Neben generativer KI werden wir in 2024 besonders neue Entwicklungen in den Bereichen Halbleiter, Post-Quantum-Kryptographie, Batterietechnologien und Weltraumforschung im Blick haben. Diese Technologien können maßgeblich dazu beitragen, die dringendsten Herausforderungen für unsere Wirtschaft, Gesellschaft und Umwelt zu bewältigen.“

Generative KI: Kleine Modelle kommen groß raus

Generative KI hat Ende 2022 und im Jahr 2023 hohe Erwartungen hinsichtlich ihrer Wirkung in Unternehmen geweckt. Die Capgemini-Analysten gehen davona aus, dass Large Language Models weiterhin florieren werden. Gleichzeitig werde der Bedarf an kleineren, kosteneffizienteren Modellen wachsen. Die Capgemini-Spezialisten prognostitizieren weiter, dass diese immer kleiner werden und auch mit begrenzten Verarbeitungskapazitäten ausgeführt werden können, beispielsweise auf kleineren Enterprise-Architekturen.

Eine weitere Prognose: Im Jahr 2024 werden neue KI-Plattformen außerdem verstärkt sogenannte ‚Halluzinationen‘ bekämpfen, indem sie generative KI-Modelle mit hochwertigen Informationen aus Wissensgraphen kombinieren. Um all diese Entwicklungen zu unterstützen, werden Plattformen entstehen, mit welchen Unternehmen generative KI-Werkzeuge ohne tiefes technisches Knowhow nutzen können. Langfristig werden so miteinander verbundene Modell-Netzwerke für spezifische Aufgaben und generative Multi-Agenten-Ökosysteme geschaffen.

Dieser Trend deute auf eine Entwicklung zu einer zugänglicheren, vielseitigeren und kostengünstigeren Technologie hin, so die Experten. Für Unternehmen bedeutet dies, dass sie Anwendungsfälle für generative KI schneller skalieren und gleichzeitig einen größeren langfristigen Nutzen aus der Technologie ziehen können.

Quantentechnologie: Cyber trifft auf Qubits

Derzeit findet ein Cyber-Wettrüsten statt, bei dem Fortschritte in der Rechenleistung mit digitalen Verteidigungsmechanismen einhergehen müssen. Beispielsweise werden KI und maschinelles Lernen (ML) zunehmend eingesetzt, um Bedrohungen zu erkennen. Außerdem könnte das Zero-Trust-Modell zu einem globalen Standard werden. Zugleich zeichnet sich eine neue Bedrohung ab: Fortschritte im Quantencomputing bedrohen derzeitige Verschlüsselungsstandards wie RSA und ECC. Das macht die Entwicklung quantenresistenter Algorithmen dringend notwendig, um Datenschutz und Datensicherheit auch in Zukunft zu gewährleisten.

In den USA wird das National Institute of Standards and Technology (NIST) im Jahr 2024 den Standard für die sogenannte Post-Quantum-Kryptographie (PQC) – Verschlüsselungsalgorithmen, die gegen Quantenangriffe resistent sein sollen – veröffentlichen. Der Quantum Computing Cybersecurity Preparedness Act schreibt vor, dass öffentliche und private Organisationen, welche die US-Regierung beliefern, innerhalb eines Jahres nach Veröffentlichung der NIST-Standards auf PQC umstellen müssen. Nicht nur in den USA, sondern weltweit könnte damit die Grundlage von Cybersicherheitsstandards auf den Kopf gestellt werden. Daher wird dieses Thema in 2024 zwangsläufig in den Vorstandsetagen auf der Tagesordnung stehen.

Halbleiter: Das Mooresche Gesetz wandelt sich

Halbleiter gelten als entscheidender Wegbereiter der digitalen Transformation. Das Mooresche Gesetz besagt, dass sich die Rechenleistung eines Mikrochips alle zwei Jahre verdoppelt, während sich die Kosten halbieren. Stößt diese Theorie jetzt an ihre physikalischen und wirtschaftlichen Grenzen? Die Halbleiterindustrie steht vor einer Zeitenwende. Die Chips erreichen eine Größe von 2 nm, Transistoren nähern sich der Größe einiger Atome, und die notwendigen Investitionen in Forschung und Entwicklung sowie in hochmoderne Fertigungsanlagen werden selbst für die größten Chiphersteller zu einer Herausforderung. Die Capgemini-Experten gehen davon aus, dass eine Weiterentwicklung des Mooreschen Gesetzes zu neuen Paradigmen führen wird. Obwohl sich Chiplets der absoluten physikalischen Grenze der Chip-Miniaturisierung nähere, würde sich die Rechenleistung dank Durchbrüchen beim 3D-Chip-Stacking, Innovationen in der Materialwissenschaft und neuen Formen der Lithografie weiter steigern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert