Leistungsfähigere KI und weltwirtschaftliche Verschiebungen

KI-Experte Carsten Kraus

Künstliche Intelligenz entwickelt sich rasant. 2024 wird nicht nur die Technologie weiterentwickelt, auch weltwirtschaftliche Auswirkungen werden deutlicher zu spüren sein. KI-Experte Carsten Kraus gibt seine Prognosen ab.  Im Fokus: Leistungsfähigere KI durch bessere kleine Large-Language-Models, Deep-Reinforcement-Learning und spezielle Hardware sowie weltwirtschaftliche Verschiebungen durch Regulation und neue Investitionen. 

 

Weltwirtschaft: Regulation von KI in der EU, China auf dem Vormarsch 

  • AI Act der EU birgt Risiken: Für die mittelständische Wirtschaft aller Branchen ist der AI Act gefährlich. Für nicht-weltmarktorientierte europäische KI-Firmen ergeben sich eventuell neue Chancen. Die Unterschiede zum US-Markt müssen berücksichtigt werden, sonst drohen sehr hohe Strafen – und kleinere US-Unternehmen werden damit ihre Produkte eher nicht in die EU verkaufen.
  • Eigene Large-Language-Models für alle Nationen: Alle Nationen werden eigene Large-Language-Models (LLMs) haben wollen, um nicht von den USA und China abhängig zu sein. Der Hintergrund: Entwickler können jeweils Meinungen und Geisteshaltungen der LLMs – und damit auch ihrer Anwender – beeinflussen.
  • China erhöht KI-Budget: China wird seine Anstrengungen nochmals vervielfachen und das staatliche Budget stark erhöhen. Denkbar ist, dass zudem aktiv versucht wird, führende chinesischstämmige KI-Forscher aus den USA zurückzuholen.
  • Indien durch KI gefährdet: Routine-Tätigkeiten in der Software-Entwicklung lassen sich durch KI bereits heute doppelt so schnell erledigen. Das könnte eine Bedrohung für Indiens Outsourcing-Firmen sein denn,  in Indien stammen 7,4 Prozent des BIP aus der Software-Industrie.

 

Software: Leistungsfähigere Large-Language-Models und klügere KI 

  • Leistungsfähigere, kleine LLMs: Kleinere Large-Language-Models (LLMs) werden leistungsfähig genug für viele Anwendungen (>= GPT 3.5 Qualität). Am Beispiel von Googles „GeminiNano“ und „Microsofts Phi-2“ sieht man schon jetzt große Fortschritte in dieser Richtung, Phi-2 hat ungefähr die Leistung des 25-mal größeren Llama2.
  • KI löst kompliziertere Sachverhalte: Deep-Reinforcement-Learning (Deep-RL) wird weitere Durchbrüche erreichen und mehr Beachtung finden. Google, das mit seiner Tochterfirma Deepbrain führend in Deep-Reinforcement-Learning ist, wird versuchen, LLMs mit Deep-RL zu verbinden. Mit Alpha-Fold und mehreren Durchbrüchen in der Mathematik-Forschung hat Google bereits für viel Aufsehen in der Wissenschaft gesorgt. Gelingt die Kombination, kann die KI viel besser komplizierte Sachverhalte durchdenken als bisher.

 

Hardware: Supercomputer und spezielle Hardware für KI

  • Konkurrenz für Nvidia: AMD bringt mit den MI300-Karten für Rechenzentren eine ernsthafte Alternative zu Nvidia auf den Markt. Dadurch kann Nvidia nicht mehr jeden Preis durchsetzen.
  • Spezielle Hardware für KI: Bisher wird KI meist auf GPUs ausgeführt, die eigentlich für Grafik entwickelt wurden. Dabei ist spezielle Hardware viel effizienter: Beispielsweise hat IBM-Northpole vorgestellt – eine Architektur, die den Speicher so verteilt, dass er jeweils nah um die Rechenkerne angeordnet ist. IBM erwartet sich davon eine mindestens 5-mal höhere Effizienz. Außerdem sind spezielle Chips für Spiking-Neutral-Networks in der Entwicklung. Ein Supercomputer namens Deepsouth soll April 2024 in Betrieb gehen, der das Spiking-Prinzip mit existierender Hardware realisiert (und damit noch nicht die vollen Effizienzgewinne bringt). Die speziellen Chips kommen jedoch nicht 2024, sondern erst in ein paar Jahren.