A TPU Ironwood -tól az Agent2Agent -ig: A Google megduplázódik a hibrid AI -n
A közelmúltban sok vita folyt arról, hogy az AI alkalmazások hogyan alakulnak, de a Google által a Las Vegas -i felhőben a Google -ban tett számos bejelentés alapján egyre világosabbnak tűnik, hogy a hibrid az, ahol ezeknek a fejleményeknek sok a vezetése.
A világosság kedvéért a Google óriási és lenyűgözően széles körű bejelentést tett a Cloud Next -nél, és nem egyetlen sajtóközleményt, amelyet kifejezetten a Hybrid AI -t említettek.
Ha azonban egy lépést hátráltat, és elemzi, hogy több darab illeszkedjen egymáshoz, és előre nézzen, ahol a vállalat vezet, a vezetés, a Genai-alapú alkalmazások (és az ügynökök) koncepciója, amely kihasználja a nyilvános felhő, az vállalati magánfelhők és még az intelligens eszközök kombinációját, amelyek ez a hibrid AI-Appear elkerülhetetlen.
Néhány kiemelés először. A felhőinfrastruktúra fronton a Google számos nagy debütált a Cloud Next -nél, amelyek többsége a GCP ügyfelei számára a számítógépes építészeti lehetőségek növekvő körére összpontosít.
A legfontosabb, hogy a vállalat levette a 7. generációs TPU processzorát, az Ironwood kódot, a házon belüli GPU-k alternatíváját, és az első, amelyet kifejezetten a munkaterhelés következtetésére terveztek. A nyers teljesítmény 10x-es javulása mellett a korábbi generációkkal szemben a legújabb verziókban lenyűgöző az a nagysebességű chip-chip csatlakozási lehetőségek, amelyeket a Google kínál köztük.
Az NVIDIA NVLINK könyvből egy oldalt véve a Google legújabb AI Hypercomputer architektúrája e Gen 7 TPU-k közül akár 9 216-ig terjedhet, és egyetlen számítási podsá vált, amely rengeteg sávszélességet biztosít az új, átgondolt alapú érvelési modellek közül, amelyek már elérhetővé válnak. Valójában a Google azt állította, hogy egy rendszer maximalizálása akár 42,5 exaflop -ot is eljuthat, ami több mint 24 -szerese a mai leggyorsabb szuperszámítógép számítógéppel.
ADK keretrendszer, amely megmutatja, hogyan lehet több agent rendszert felépíteni
Egy másik nagy téma a Cloud Next Keynote -ból az ügynökök körül volt, beleértve az azok felépítéséhez szükséges eszközöket, összekapcsolni őket egymással, és könnyebben integrálni őket a különféle LLM -ekkel.
A vállalat korábbi ügynöki bejelentésére építve-amely lehetővé teszi a vállalati alkalmazottak számára, hogy a Google multimodális keresési képességeit felhasználják a vállalati adatokon keresztül, és saját ügynökeiket építsenek egy alacsony kódon/a No Code-Google-ban, egy új ügynöki fejlesztési készletet is debütáltak a fejlesztők számára a Vertex AI platformjának részeként.
Még ennél is fontosabb, hogy a vállalat bejelentette az Agent2Agent (A2A) protokollját, amely arra törekszik, hogy szabványosítsa azt az eszközt, amellyel a különböző ügynökök „beszélgethetnek” egymással és megoszthatják az információkat. Az A2A épít és kompatibilis az antropikusokkal Modell Context Protocol (MCP) amelyet tavaly vezettek be, és gyorsan vonzódnak az AI világában.
Valójában a Google erős MCP -támogatása számos olyan termékcsaládon keresztül, amelyet itt vezettek be a Cloud Next -en, ami valóban a hibrid AI következtetésekhez vezetett. Az MCP szabványosított módszert kínál a modellek számára, hogy különféle adatforrásokhoz kapcsolódjanak – ahelyett, hogy a szabadalmaztatott API -kkal foglalkoznának -, és egy szabványosított eszközt biztosít, amelyben a modellek feltárhatják azokat a különféle funkciókat, amelyeket képesek elvégezni ezeken az adatkészleteken.
A folyamat során ez azt jelenti, hogy az MCP egyaránt megoldja néhány nagy kihívást az AI-alapú alkalmazások létrehozásában, amelyek felhasználhatják a helyi adatforrásokat, és megnyithatják az érdekes lehetőségek világát az elosztott AI alkalmazások létrehozásához, amelyek adatforrásokba, egyéb modellekbe és egyéb számítástechnikai infrastruktúrákba léphetnek a különböző fizikai helyszíneken. Ez a képesség teszi az MCP-t annyira érdekessé, és valószínűleg nagy oka annak, hogy a kialakuló szabványnak támogatása olyan gyorsan növekszik.
A Google sokkal valóságosabbá tette az MCP potenciális hatásait azáltal, hogy bejelentette, hogy most lehetővé teszi a szervezetek számára, hogy a Gemini modelleket, az ügynököket és más AI-eszközöket a Google elosztott felhőn keresztül az év harmadik negyedévében a Google elosztott felhőn keresztül hozzák be a magánfelhő/prem adatközpontokba. Ez egy rendkívül fontos fejlemény, mivel azt jelenti, hogy a Google Cloud-alapú eszközökkel alkalmazott alkalmazásokat építő vállalatok sokféle környezetben felhasználhatják őket.
Tehát például lehetséges, hogy egy szervezet kihasználja a Google nyilvános felhőinfrastruktúrájának alapvetően korlátlan erőforrásait, hogy bizonyos funkciókat futtasson bizonyos modellekkel és adatkészletekkel, amelyek ott tároltak, miközben más funkciókat futtatnak különféle modelleken, amelyek a tűzfal mögött hozzáférnek az adatokhoz a privát felhőben vagy az adatközpontban.
Ez megoldja az adatok gravitációs problémáját, amelyekkel sok szervezet küzdött, amikor elkezdenek gondolkodni a mai legfejlettebb LLM -ek erőteljes képességeinek becsapásáról, mivel ez lényegében lehetővé teszi számukra, hogy mindkét világ legjobbja legyen. Masszív felhőalapú számításokat ad nekik a nyilvános felhőben tárolt adatokkal, és a helyi számításokat a nagy és gyakran legértékesebb védett adatkészletekkel, amelyeket sok szervezet továbbra is megtart (vagy esetleg visszafizetésre akar lépni) a saját környezetében.
Ráadásul a számítástechnikai környezet elosztott jellegét is meghosszabbíthatjuk a PC -kre és az okostelefonokra, különösen mivel a erősebb AI gyorsulási képességekkel rendelkező eszközök rendelkezésre állása növekszik. Noha ez az utolsó lépés valószínűleg nem történik meg egyik napról a másikra, kritikus képességgé válik, mivel a vállalatok arra törekszenek, hogy csökkentsék a villamosenergia -igényeket és költségeket AI -alkalmazásaik útján.
Az eszközön lévő képességekről beszélve a Google a munkaterület termelékenységének kínálatának számos fejlesztését is bejelentette az idei felhőben. Az új AI-alapú funkciók közé tartozik az automatizálásra összpontosító munkafolyamatok, a DOC-k audio funkciói és még sok más. Ezek számos korábbi AI-meghajtású funkcióra épülnek, amelyeket a Google az év elején a munkaterületre hozta, ideértve a Gemini modell legfejlettebb verziójához való hozzáférést, a lapok új adatelemzési funkcióit, a dokumentumok elemzését és az összes munkaterület-alkalmazásban összefoglalást.
Mint a korábbi Cloud Next Eventsnél, még sok más bejelentés történt, amelyeket a Google megvitatott olyan területeken, mint például az adatbázisok, a kódkészítési eszközök, a FireBase Agent Creation Studio, a Cloud WAN privát hálózat hozzáférése, a biztonsági fejlesztések és még sok más.
Kicsit lenyűgöző az egész értelme, hogy őszinte legyek, de ez csak azt mutatja, hogy mennyire óriási gyors felhőalapú ajánlatok továbbra is bővülnek, különösen a még gyorsabb mozgó AI Alapítvány-modellek integrációjával.
Végül azonban egyértelmű, hogy a Google az AI -fejlemények hosszú története, valamint a Gemini modellekkel és más AI eszközökkel végzett közelmúltbeli előrelépések egyértelmű differenciálozóként használja a Google Cloud számára. A folyamat során továbbra is egyedülálló módon pozicionálják magukat nemcsak a jelenlegi alkalmazásokra, hanem a hibrid AI alkalmazásokra is.
Bob O’Donnell a Technalys Research, LLC alapítója és fő elemzője, olyan technológiai tanácsadó cég, amely stratégiai tanácsadási és piackutatási szolgáltatásokat nyújt a technológiai ipar és a professzionális pénzügyi közösség számára. Követheti őt x @bobodtech -en