Die letzte Woche in KI: Neues Modell, agentische Workflows und ein stiller Revolutionär
Hey KI-Crew!
Was für aufregende Zeiten im KI-Bereich! Es gibt so viel Neues zu berichten, dass man kaum hinterherkommt. Von krassen Upgrades bei Sprachmodellen bis hin zu mega spannenden Anwendungen in Firmen - die KI-Welt steht nicht still.
Seid ihr ready für eine Portion KI-News vom Feinsten? Dann schnallt euch an und lasst uns loslegen!
Das erwartet euch diesmal:
Also, lasst euch überraschen und staunt, was in der KI-Welt alles abgeht. Viel Spaß beim Durchstöbern!
DIE NEUESTEN ENTWICKLUNGEN
Accenture, ein großes Beratungsunternehmen, ist auf dem besten Weg, in diesem Jahr 2,4 Milliarden Dollar Umsatz zu machen, mehr als OpenAI und andere KI-Startups zusammen. Es wird erwartet, dass Unternehmen ihre KI-Budgets bis 2024 mehr als verdoppeln. Accenture hat sich mit AWS und Anthropic zusammengetan, um branchenspezifische KI-Lösungen, insbesondere Chatbots, zu entwickeln.
Emad Mostaque, der Gründer von Stability.AI, hat das Unternehmen verlassen, um sich der dezentralen KI zu widmen, und hat ein Team seiner besten Entwickler mitgenommen. Dieser Schritt kam unerwartet. Stability AI kämpft inmitten von Finanzturbulenzen ums Überleben.
Mistral, hat Mistral 7b Version 0.2 mit einem längeren Kontextfenster von 32k Token veröffentlicht. Das Update wurde still und leise während eines Hackathons ohne große Ankündigung eingeführt.
In seiner Präsentation und seinem Newsletter sprach Andrew Ng über "agentische Workflows" - die Verwendung mehrerer KI-Agenten, die reflektieren, sich selbst verbessern und externe Tools wie Datenbanken, Websuche und Codeausführung nutzen können, um zusammenzuarbeiten und komplexe Aufgaben zu lösen. Diese Multiagentensysteme haben Modelle wie GPT-3.5 und GPT-4 weit übertroffen.
Databricks hat ein eigenes Sprachmodell mit 132 Milliarden Parametern namens DBRX veröffentlicht, das angeblich Lama 2, Grok und Mixtral übertrifft. Es verwendet eine Mischung aus 16 Experten und anderen fortschrittlichen Techniken, benötigt aber 4 x 80GB GPUs für die Inferenz.
Jamba, ein Open-Source-Modell von AI21 Labs, kann bis zu 256k Token im Kontext verarbeiten und ist damit deutlich schneller als Modelle wie GPT. Es kombiniert Mamba-Schichten mit regulären Transformer-Schichten, um lange Texte effizient zu verarbeiten.
OpenAI wirbt in Hollywood für Sora, ihr kürzlich veröffentlichtes Modell, das realistische 60-Sekunden-Videos produzieren kann, als kostengünstigere Alternative zu herkömmlichem CGI.
In einem Interview erklärte Elon Musk, dass Artificial General Intelligence (AGI) in 1-3 Jahren, auf jeden Fall aber innerhalb von 5 Jahren erreicht wird. Damit widerspricht er der früheren Prognose von Ray Kurzweil für 2029.
Grok-1.5, das neueste Modell von xAI, bietet verbesserte Argumentations- und Problemlösungsfähigkeiten, eine erheblich erweiterte Kontextlänge von 128.000 Token und eine benutzerdefinierte, verteilte Trainingsinfrastruktur, die auf JAX, Rust und Kubernetes basiert und in Kürze für frühe Tester und bestehende Grok-Nutzer auf der 𝕏-Plattform verfügbar sein wird.
Empfohlen von LinkedIn
h2o-wizardlm ist ein Tool, das Dokumente in Frage-Antwort-Paare umwandeln kann, die für die Erstellung von Lerndatensätzen zum Trainieren von Sprachmodellen nützlich sind.
Das Buch "Chip War" diskutiert, wie Mikrochips zum neuen Öl geworden sind, da China Milliarden in die Aufholjagd gegenüber den USA in der Chipherstellung investiert.
Google hatte schon früh einen Vorsprung bei Sprachmodellen und der Transformer-Architektur, zögerte aber, seine Modelle zu veröffentlichen, weil es um Chatbot-Halluzinationen und seinen Ruf fürchtete. Die Veröffentlichung von ChatGPT durch OpenAI brachte Google schließlich dazu, seine eigenen Modelle zu veröffentlichen.
Ein einfaches Retrieval-Augmented Generation (RAG) System kann auf AWS mit Lambda für die Chatbot-Logik, DynamoDB für die Session-Speicherung, Bedrock für Sprachmodelle und Kendra für die semantische Suche erstellt werden.
activeloop.ai bietet das Produkt Deep Lake an, eine Open-Source-Datenbank, die speziell für KI-Daten entwickelt wurde und zum Aufbau hochwertiger RAG-Systeme verwendet werden kann.
Microsoft hat eine Methode zur Verwendung von graphischen neuronalen Netzen zum Einbetten und Abrufen von Informationen für RAG-Systeme namens GraphRAG veröffentlicht.
Jüngste Forschungen haben gezeigt, dass es möglich ist, Sprachmodelle ohne nennenswerte Genauigkeitsverluste auf 1-2 Bit zu quantisieren, was eine sehr effiziente Inferenz ermöglicht.
Die Rangliste der crowd-gesourcten KI "Arena" wurde aktualisiert, wobei das Modell Claude von Anthropic nun an der Spitze steht und GPT-4 vom Thron gestoßen hat.
DAS WAR’S FÜR HEUTE
Vielen Dank, dass du diese Woche das KI-Update von JetztAberPROMPT! gelesen hast!
Wenn du Feedback für uns oder Ideen für diesen Newsletter hast, lass es mich wissen! Ich möchte den Newsletter verbessern und ihn zu etwas machen, auf das du dich jede Woche freuen kannst. Deshalb sind alle Ideen willkommen!
Bis nächste Woche. :)
Sebastian
#KI #ArtificialIntelligence #ChatGPT #DeepLearning #MachineLearning #NLP #Sprachmodelle #Zukunft #Innovation #TechTrends
KI für KMUs & Solopreneure | Doppelt so produktiv in Marketing & Sales mit ChatGPT & Co. | Keynote Speaker | KI Trainings | Video-Tutorials | ChatGPT & Prompt Engineering
8 MonateMit den News wird es für Stability kritisch. Ich kann mir schwer vorstellen, dass die noch lange durchhalten.