Revolutionizing the Landscape of Generative AI: A Look into Future Possibilities

In einem bahnbrechenden Schritt hat Google in diesem Jahr von seinem üblichen Closed-Source-Ansatz abgewichen und eine Reihe von Open-Source-Tools eingeführt, die darauf abzielen, generative KI-Projekte und Infrastruktur zu unterstützen. Diese Verschiebung markiert einen bedeutenden Fortschritt im Engagement des Unternehmens, die Entwicklergemeinschaft zu fördern und seine Ambitionen im Ökosystem voranzutreiben.

Eine der bemerkenswerten Tools, die von Google enthüllt wurde, ist MaxEuphorie, eine Sammlung von Referenzimplementierungen verschiedener Diffusionsmodelle. Diese Modelle, wie der Bildgenerator Stable Diffusion, sind darauf ausgelegt, auf XLA-Geräten zu laufen. XLA, oder Accelerated Linear Algebra, bezieht sich auf eine Technik, die bestimmte KI-Workloads optimiert und beschleunigt, einschließlich Feinabstimmung und Bereitstellung. Sowohl Googles Tensor Processing Units (TPUs) als auch die neuesten Nvidia-GPUs fallen in die Kategorie der XLA-Geräte.

Google führte auch Jetström ein, ein Motor, der speziell für die Ausführung generativer KI-Modelle entwickelt wurde, insbesondere von Text-generierenden Modellen. Derzeit auf die Unterstützung der TPUs beschränkt, wird eine GPU-Kompatibilität in der Zukunft erwartet. Jetström bietet eine um bis zu 3-mal höhere Leistung pro Dollar für Modelle wie Googles Gemma 7B und Metas Llama 2. Diese verbesserte Leistung ist entscheidend, da Kunden nach kosteneffizienten Inferenz-Stacks suchen, die eine hohe Leistung bieten.

„Während Jetström signifikante Leistungsverbesserungen bietet, bleiben die genauen Details hinter der behaupteten 3-fachen Verbesserung unklar“, sagte Mark Lohmeyer, General Manager für Rechenleistung und maschinelles Lernen bei Google Cloud. Fragen zur Generierung von verwendeten TPUs, verglichenen Basislinien und der Definition von Leistung wurden aufgeworfen. Google wurde um weitere Klarstellung gebeten.

MaxText, eine weitere Ergänzung zu Googles Open-Source-Beiträgen, ist eine Sammlung von Text-generierenden KI-Modellen, die auf TPUs und Nvidia-GPUs abzielen. Gemma 7B, OpenAIs GPT-3, Llama 2 und Modelle von Mistral wurden in MaxText integriert. Diese Modelle können angepasst und weiterentwickelt werden, um den spezifischen Anforderungen der Entwickler gerecht zu werden. Google hat ihre Leistung auf TPUs optimiert und mit Nvidia zusammengearbeitet, um die Leistung auf großen GPU-Clustern zu verbessern, was zu einer höheren Energieeffizienz und Kosteneinsparungen führt.

In Zusammenarbeit mit dem KI-Startup Hugging Face hat Google Optimum TPU geschaffen, um die Bereitstellung bestimmter KI-Workloads auf TPUs zu erleichtern. Das Hauptziel ist es, die Einstiegshürde für die Annahme generativer KI-Modelle, insbesondere von Text-generierenden Modellen, auf TPU-Hardware zu senken. Derzeit unterstützt Optimum TPU nur Gemma 7B, und das Training generativer Modelle auf TPUs wird noch nicht unterstützt. Google hat jedoch versichert, dass Verbesserungen in Aussicht sind.

Diese Open-Source-Tools von Google haben das Potenzial, das Feld der generativen KI zu revolutionieren und Entwicklern zu ermöglichen, neue Möglichkeiten zu erkunden. Durch den Zugang zu leistungsstarken KI-Modellen und -Infrastrukturen ebnet Google den Weg für Innovation und Zusammenarbeit innerhalb der Entwicklergemeinschaft. Mit kontinuierlichen Verbesserungen und versprochenen Fortschritten sieht die Zukunft vielversprechend aus für die Entwicklung von generativer KI.

FAQ

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact