Az ipar milliárdokat öntött zsákutcába?

Miért számít: A fő technikai szereplők az elmúlt néhány évben fogadtak, hogy egyszerűen több számítástechnikai hatalom dobása az AI -nél mesterséges általános intelligencia (AGI) – olyan rendszerekhez vezet, amelyek megfelelnek vagy meghaladják az emberi megismerést. Az AI kutatók egy nemrégiben végzett felmérése azonban azt sugallja, hogy a szkepticizmus egyre növekvő szkepticizmust javasol, hogy a jelenlegi megközelítések végtelen mértéke a helyes út.

A 475 AI kutató nemrégiben végzett felmérése azt mutatja, hogy 76% -uk úgy véli, hogy több számítástechnikai teljesítmény és adatok hozzáadása a jelenlegi AI modellekhez „valószínűtlen” vagy „nagyon valószínűtlen” az AGI -hoz vezet.

A mesterséges intelligencia (AAAI) Szövetség (AAAI) Szövetség által végzett felmérés egyre növekvő szkepticizmust mutat. Annak ellenére, hogy milliárdokat öntöttek a hatalmas adatközpontok építésébe és az egyre jó generációs modellek képzésére, a kutatók azzal érvelnek, hogy ezeknek a beruházásoknak a hozama csökken.

Stuart Russell, az UC Berkeley számítógépes tudósának és a jelentés közreműködőjének közreműködője azt mondta az új tudósnak: „A méretezésbe történő hatalmas beruházások, amelyeket kísérlet nélkülözhetetlen minden hasonló erőfeszítés, hogy megértse, mi folyik itt, mindig úgy tűnt, hogy rosszul helyezem el.”

A számok elmondják a történetet. A TechCrunch -jelentés szerint a tavalyi tavalyi kockázatitőke -finanszírozás állítólag 56 milliárd dollárt tett ki. A push az AI gyorsítók iránti hatalmas kereslethez is vezetett, és egy februári jelentés szerint a félvezető ipar 2024 -ben 626 milliárd dollárt ért el.

Ezeknek a modelleknek a futtatására mindig hatalmas mennyiségű energiát igényeltek, és a méretezéskor az igények csak emelkedtek. Az olyan vállalatok, mint a Microsoft, a Google és az Amazon, ezért biztosítják az atomenergia -ügyleteket az adatközpontok táplálására.

Ennek a kolosszális beruházásoknak ellenére azonban a legmodernebb AI modellek teljesítménye fennsíkban volt. Például sok szakértő azt javasolta, hogy az Openai legújabb modelljei csak marginális javulást mutattak elődjével szemben.

A szkepticizmuson túl a felmérés rávilágít a prioritások változására az AI kutatók között. Míg 77% -uk prioritást élvez az AI rendszerek tervezésének elfogadható kockázat-haszon profiljával, csak 23% -uk az AGI közvetlen törekvésére összpontosít. Ezenkívül a válaszadók 82% -a úgy gondolja, hogy ha az AGI -t a magánszervezetek fejlesztették ki, akkor nyilvánosan a globális kockázatok és az etikai aggodalmak enyhítésére kell szolgálnia. 70% azonban ellenzi az AGI-kutatások megállítását, amíg a teljes biztonsági mechanizmusok nem állnak rendelkezésre, ami egy óvatos, de előretekintő megközelítést jelez.

A méretezés olcsóbb, hatékonyabb alternatíváit fedezik fel. Az Openai kísérletezett a „Test-Time Compute-vel, ahol az” AI modellek több időt töltenek „gondolkodásra”, mielőtt válaszokat generálnának. Ez a módszer teljesítménynövelést eredményezett a hatalmas méretezés nélkül. Sajnos Arvind Narayanan, a Princetoni Egyetem számítógépes tudósa azt mondta az új tudósnak, hogy ez a megközelítés „valószínűleg nem lesz ezüstgolyó”.

A legfontosabb oldalról a technológiai vezetők, mint például a Google vezérigazgatója, Sundar Pichai, továbbra is optimista maradnak, azt állítva, hogy az iparág „csak felmegyhet”-még akkor is, amikor utalt arra, hogy az alacsonyan lógó gyümölcsök korszaka véget ért az AI nyereséggel.