O nas
Kontakt

Microsoft opracowuje dwa nowe chipy komputerowe, aby zrekompensować wysokie koszty technologii AI

Laura Kowalczyk

Microsoft opracowuje dwa nowe chipy komputerowe, aby zrekompensować wysokie koszty technologii AI

Gigant technologiczny nie będzie wprowadzał na rynek swoich nowych chipów, zamiast tego wykorzysta je do wzmocnienia możliwości sztucznej inteligencji w swoich usługach subskrypcji oprogramowania i przetwarzaniu w chmurze Azure.

W środę Microsoft ogłosił utworzenie duetu specjalnie zaprojektowanych chipów obliczeniowych, dołączając do innych dużych firm technologicznych, które wdrażają własne podstawowe technologie, aby zrównoważyć wysokie koszty świadczenia usług sztucznej inteligencji (AI).

Microsoft wskazał, że nie planuje sprzedawać chipów, lecz zamiast tego użyje ich do zasilania własnej oferty oprogramowania subskrypcyjnego oraz w ramach usługi przetwarzania w chmurze Azure.

Podczas konferencji programistów Ignite w Seattle firma Microsoft przedstawiła nowy chip o nazwie Maia, który ma przyspieszyć zadania obliczeniowe AI i zapewnić podstawę dla płatnej za 30 dolarów miesięcznie (28 euro) usługi „Copilot” dla użytkowników oprogramowania biznesowego, a także dla programistów, którzy chcą tworzyć niestandardowe usługi AI

Układ Maia został zaprojektowany do uruchamiania dużych modeli językowych, czyli rodzaju oprogramowania AI, które stanowi podstawę usługi Azure OpenAI firmy Microsoft i jest produktem współpracy Microsoftu z twórcą ChatGPT, OpenAI.

Microsoft i inni giganci technologiczni, tacy jak Alphabet, borykają się z wysokimi kosztami świadczenia usług AI, które mogą być 10 razy wyższe niż w przypadku tradycyjnych usług, takich jak wyszukiwarki.

Dyrektorzy Microsoft oświadczyli, że planują uporać się z tymi kosztami, kierując prawie wszystkie szeroko zakrojone wysiłki firmy mające na celu włączenie sztucznej inteligencji do swoich produktów za pośrednictwem wspólnego zestawu podstawowych modeli sztucznej inteligencji. Twierdzą, że chip Maia jest zoptymalizowany do tej pracy.

„Uważamy, że dzięki temu możemy dostarczać naszym klientom lepsze rozwiązania, które są szybsze, tańsze i wyższej jakości” – powiedział Scott Guthrie, wiceprezes wykonawczy grupy Microsoft zajmującej się chmurą i sztuczną inteligencją.

Microsoft zapowiedział także, że w przyszłym roku zaoferuje swoim klientom Azure usługi chmurowe, które działają na najnowszych flagowych chipach firm Nvidia i Advanced Micro Devices.

„To nie jest coś, co wypiera Nvidię” – powiedział Ben Bajarin, dyrektor naczelny firmy analitycznej Creative Strategies.

Powiedział, że chip Maia umożliwi Microsoftowi sprzedaż usług sztucznej inteligencji w chmurze, dopóki komputery osobiste i telefony nie będą wystarczająco mocne, aby sobie z nimi poradzić.

„Microsoft ma tutaj zupełnie inne możliwości, ponieważ zarabia na usługach mnóstwo pieniędzy na użytkownika” – powiedział Bajarin.

Drugi chip Microsoftu ma służyć zarówno wewnętrznej oszczędności kosztów, jak i odpowiedzi na potrzeby głównego rywala Microsoftu w chmurze, Amazon Web Services.

Nowy chip, nazwany Cobalt, jest jednostką centralną (CPU) wykonaną w technologii firmy Arm Holdings. W środę Microsoft ujawnił, że testuje już Cobalt w celu obsługi Teams, narzędzia do przesyłania wiadomości biznesowych.

Jednak Guthrie z Microsoftu powiedział, że jego firma chce również sprzedawać bezpośredni dostęp do Cobaltu, aby konkurować z serią wewnętrznych chipów „Graviton” oferowanych przez Amazon.

„Projektujemy nasze rozwiązanie Cobalt, aby zapewnić sobie dużą konkurencyjność zarówno pod względem wydajności, jak i stosunku ceny do wydajności (w porównaniu z chipami Amazon)” – powiedział Guthrie.

Microsoft podał kilka szczegółów technicznych, które umożliwiłyby porównanie konkurencyjności chipów z konkurencyjnością tradycyjnych producentów chipów. Rani Borkar, wiceprezes korporacyjny ds. systemów i infrastruktury sprzętowej Azure, powiedziała, że ​​oba są wykonane w 5-nanometrowej technologii produkcyjnej firmy Taiwan Semiconductor Manufacturing Co.

Dodał, że chip Maia będzie połączony ze standardowym okablowaniem sieci Ethernet, a nie z droższą, niestandardową technologią sieciową Nvidia, którą Microsoft zastosował w superkomputerach zbudowanych dla OpenAI.

„Przekonacie się, że pójdziemy znacznie bardziej drogą standaryzacji” – powiedział Borkar.