Az MI-robbanás már Amazon minden szegletében dübörög

Featured Image
“A vállalat gyakorlatilag egyetlen része sem marad érintetlen az MI-től”, nyilatkozta Vishal Sharma, az Amazon mesterséges általános intelligenciáért felelős alelnöke hétfőn Barcelonában. Elvetette azt az ötletet, hogy a nyílt forráskódú modellek csökkenthetnék a számítási igényeket, és kitérő választ adott arra a kérdésre, hogy az európai vállalatok megváltoztatnák-e generatív MI-stratégiáikat az Egyesült Államokkal fennálló geopolitikai feszültségek fényében. Sharma a startup konferencián elmondta, hogy az Amazon most saját alapmodelleket használva alkalmazza az MI-t az Amazon Web Services (AWS) az Amazon felhőalapú számítástechnikai divíziója -, a raktárakban működő robotika és az Alexa fogyasztói termék területén, többek között. “Körülbelül háromnegyed millió robotunk van, amelyek mindent elvégeznek, a termékek kiválogatásától kezdve a raktáron belüli önálló működésig. Az Alexa termék valószínűleg a legszélesebb körben elterjedt otthoni MI-termék a világon… Az Amazon egyetlen része sem marad érintetlen a generatív MI-től.”

Nova és Bedrock: Az Amazon MI-szolgáltatásai

Decemberben az AWS bemutatott egy új, négy szöveggeneráló modellből álló csomagot, amelyet Nova néven futó multimodális generatív MI-modellek családjának nevez. Sharma elmondta, hogy ezeket a modelleket nyilvános viszonyítási alapok szerint tesztelik: “Elég világossá vált, hogy hatalmas sokfélesége van a felhasználási eseteknek. Nincs univerzális megoldás. Vannak helyek, ahol videógenerálásra van szükség… és más helyek, mint az Alexa, ahol konkrét dolgokat kérsz tőle, és a válasznak nagyon, nagyon gyorsnak és kiszámíthatónak kell lennie. Nem hallucináld azt, hogy ‘nyisd ki a hátsó ajtót’.”

Ugyanakkor elmondta, hogy a számítási igények csökkentése kisebb nyílt forráskódú modellekkel valószínűleg nem fog bekövetkezni: “Ahogy különböző forgatókönyvekben kezded el implementálni, egyre több és több intelligenciára van szükség,” mondta.

Az Amazon elindította a “Bedrock” nevű szolgáltatást is az AWS-en belül, amely a különböző alapmodelleket keverni és párosítani kívánó vállalatokat és startupokat célozza meg. Ez lehetővé teszi a felhasználók számára, hogy zökkenőmentesen váltsanak a modellek között – mondta.

Hatalmas számítási kapacitás a fejlesztés mögött

Az Amazon emellett hatalmas MI számítási klasztert épít az Anthropic-kal partnerségben, amelybe 8 milliárd dollárt fektetett be. Eközben Elon Musk xAI cége nemrég mutatta be legújabb zászlóshajó MI-modelljét, a Grok 3-at, egy hatalmas memphisi adatközpontban, amely körülbelül 200 000 GPU-t tartalmaz.

A számítási erőforrások ilyen szintjéről kérdezve Sharma ezt mondta: “Személyes véleményem szerint a számítási kapacitás még nagyon hosszú ideig része lesz a beszélgetésnek.”

Nem gondolta, hogy az Amazont nyomás alá helyeznék a Kínából nemrég megjelent nyílt forráskódú modellek áradata: “Nem így írnám le,” mondta. Ellenkezőleg, az Amazon számára kényelmes a DeepSeek és más modellek telepítése az AWS-en, sugallta. “Olyan cég vagyunk, amely hisz a választás szabadságában… Nyitottak vagyunk arra, hogy bármilyen trendet és technológiát átvegyünk, ami jó az ügyfelek szempontjából,” mondta Sharma.

  • Mit gondolsz arról, hogy egy vállalatnak milyen mértékben érdemes integrálni a mesterséges intelligenciát minden részlegébe?
  • Hogyan viszonyulnál az open-source technológiákhoz a vállalatod stratégiájában, adott esetben beépítenéd őket, vagy inkább saját fejlesztésű megoldásokra támaszkodnál?




Legfrissebb posztok