Fransız bir girişim AI uygulamalarını daha verimli bir şekilde oluşturmak ve eğitmek isteyen geliştiriciler için “bilgi işlem altyapısını yeniden tasarlamak” amacıyla büyük bir başlangıç yatırımı gerçekleştirdi.
Şirketin adıyla FlexAI, Ekim 2023’ten bu yana gizli olarak faaliyet gösteriyor, ancak Paris merkezli şirket Çarşamba günü resmi olarak 28,5 milyon Euro (30 milyon $) fonla faaliyete geçiyor ve ilk ürününün tanıtımını yapıyor: isteğe bağlı bulut hizmeti Yapay zeka eğitimi için.
Bu, bir tohum turu için büyük bir değişiklik, ki bu normalde gerçekten önemli bir kurucu soyağacı anlamına gelir – ve burada da durum böyle. FlexAI kurucu ortağı ve CEO’su Brijesh Tripathi, Apple’da çeşitli üst düzey mühendislik ve mimarlık görevlerine başlamadan önce, daha önce GPU devinde ve şimdi de yapay zekanın gözdesi Nvidia’da kıdemli bir tasarım mühendisiydi; Tesla (doğrudan Elon Musk’un altında çalışıyor); Zoox (Amazon otonom sürüş girişimini satın almadan önce); ve son olarak Tripathi, Intel’in yapay zeka ve süper bilgi işlem platformu kolu AXG’nin Başkan Yardımcısıydı.
FlexAI kurucu ortağı ve CTO’su Dali Kilani de etkileyici bir özgeçmişe sahip; Nvidia ve Zynga gibi şirketlerde çeşitli teknik rollerde hizmet veriyor ve son olarak sağlık sektörü için dijital altyapı geliştiren Fransız startup Lifen’da CTO rolünü üstleniyor.
Başlangıç turu Alpha Intelligence Capital (AIC), Elaia Partners ve Heartcore Capital tarafından yönetildi ve Frst Capital, Motier Ventures, Partech ve InstaDeep CEO’su Karim Beguir’in katılımıyla gerçekleşti.
Hesaplama bilmecesi
Tripathi ve Kilani’nin FlexAI ile neyi denediğini anlamak için öncelikle geliştiricilerin ve yapay zeka uygulayıcılarının “bilgi işlem”e erişim konusunda neyle karşı karşıya olduklarını anlamak gerekir; bu, verileri işlemek, algoritmaları çalıştırmak ve makine öğrenimi modellerini yürütmek gibi hesaplama görevlerini gerçekleştirmek için gereken işlem gücünü, altyapıyı ve kaynakları ifade eder.
“Yapay zeka alanındaki herhangi bir altyapıyı kullanmak karmaşıktır; Tripathi, TechCrunch’a “Bu cesareti zayıf olanlar için değil ve deneyimsizler için de değil” dedi. “Altyapıyı kullanmadan önce nasıl inşa edileceğine dair çok fazla bilgi sahibi olmanızı gerektiriyor.”
Buna karşılık, geçtiğimiz birkaç on yılda gelişen genel bulut ekosistemi, bir sektörün, geliştiricilerin arka uç hakkında çok fazla endişelenmeden uygulama geliştirme ihtiyacından nasıl ortaya çıktığına dair güzel bir örnek teşkil ediyor.
“Küçük bir geliştiriciyseniz ve bir uygulama yazmak istiyorsanız, uygulamanın nerede çalıştırıldığını veya arka ucun ne olduğunu bilmenize gerek yok; yalnızca bir EC2 (Amazon Elastic Compute cloud) örneğini çalıştırmanız yeterli ve “İşimiz bitti,” dedi Tripathi. “Bugün yapay zeka hesaplamasıyla bunu yapamazsınız.”
Yapay zeka alanında geliştiricilerin, kurulumundan tamamen kendilerinin sorumlu olduğu bir yazılım ekosistemi aracılığıyla yönetilen, ne tür bir ağ üzerinden kaç GPU’yu (grafik işlem birimi) birbirine bağlamaları gerektiğini bulmaları gerekiyor. Bir GPU veya ağ arızalanırsa veya bu zincirdeki herhangi bir şey ters giderse, bunu çözme sorumluluğu geliştiriciye aittir.
Tripathi, “Yapay zeka bilgi işlem altyapısını genel amaçlı bulutun ulaştığı basitlik düzeyine getirmek istiyoruz – 20 yıl sonra evet, ancak yapay zeka bilişimin aynı faydaları görememesi için hiçbir neden yok” dedi. “Yapay zeka iş yüklerini çalıştırmanın veri merkezi uzmanı olmanızı gerektirmediği bir noktaya ulaşmak istiyoruz.”
FlexAI, ürününün mevcut versiyonunda bir avuç beta müşteriyle aynı adımları atarken, ilk ticari ürününü bu yılın sonlarında piyasaya sürecek. Temel olarak geliştiricileri “sanal heterojen hesaplamaya” bağlayan bir bulut hizmetidir; bu, iş yüklerini çalıştırabilecekleri ve AI modellerini birden fazla mimariye dağıtabilecekleri, GPU’ları saat başına dolar üzerinden kiralamak yerine kullanım esasına göre ödeme yapabilecekleri anlamına gelir.
GPU’lar yapay zeka geliştirmede hayati önem taşıyan çarklardır; örneğin büyük dil modellerinin (LLM’ler) eğitilmesine ve çalıştırılmasına hizmet eder. Nvidia, GPU alanının önde gelen oyuncularından biri ve OpenAI ve ChatGPT’nin ateşlediği yapay zeka devriminin ana yararlanıcılarından biri. OpenAI’nin Mart 2023’te ChatGPT için geliştiricilerin ChatGPT işlevselliğini kendi uygulamalarına dönüştürmesine olanak tanıyan bir API başlatmasından bu yana geçen 12 ay içinde Nvidia’nın hisseleri yaklaşık 500 milyar dolardan 2 trilyon doların üzerine çıktı.
GPU’lara olan talebin hızla artmasıyla birlikte yüksek lisanslar teknoloji endüstrisinden dökülüyor. Ancak GPU’ların çalıştırılması pahalıdır ve bunları daha küçük işler veya geçici kullanım durumları için bir bulut sağlayıcısından kiralamak her zaman mantıklı değildir ve aşırı derecede pahalı olabilir; AWS’nin daha küçük yapay zeka projeleri için süre sınırlı kiralamalarla uğraşmasının nedeni budur. Ancak kiralama hala kiralama anlamına geliyor; bu nedenle FlexAI, altta yatan karmaşıklıkları ortadan kaldırmak ve müşterilerin ihtiyaç duyuldukça yapay zeka bilgi işlemine erişmesine izin vermek istiyor.
“Yapay Zeka için Çoklu Bulut”
FlexAI’nin başlangıç noktası çoğu geliştiricinin bunu yapmamasıdır. Gerçekten Nvidia, AMD, Intel, Graphcore veya Cerebras olsun, çoğunlukla kimin GPU’larını veya çiplerini kullandıklarına dikkat edin. Ana endişeleri, bütçe kısıtlamaları dahilinde yapay zekalarını geliştirebilmek ve uygulamalar oluşturabilmektir.
FlexAI’nin “evrensel yapay zeka hesaplaması” kavramının devreye girdiği yer burasıdır; burada FlexAI kullanıcının gereksinimlerini alır ve bunu söz konusu iş için anlamlı olan mimariye tahsis eder, Intel’in Gaudi’si de dahil olmak üzere farklı platformlar arasında gerekli tüm dönüşümleri üstlenir. altyapı, AMD’nin Rocm’i veya Nvidia’nın CUDA’sı.
Tripathi, “Bu, geliştiricinin yalnızca modelleri oluşturmaya, eğitmeye ve kullanmaya odaklandığı anlamına geliyor” dedi. “Altındaki her şeyle biz ilgileniyoruz. Arızalar, kurtarma, güvenilirlik, hepsi bizim tarafımızdan yönetiliyor ve kullandığınız kadar ödersiniz.”
FlexAI birçok açıdan bulutta halihazırda olup bitenleri yapay zeka için hızlandırmak üzere yola çıkıyor; bu, kullanım başına ödeme modelini kopyalamaktan daha fazlası anlamına geliyor: Bu, farklı avantajlardan yararlanarak “çoklu buluta” geçme yeteneği anlamına geliyor Farklı GPU ve çip altyapılarının
Örneğin FlexAI, önceliklerinin ne olduğuna bağlı olarak müşterinin özel iş yükünü kanalize edecektir. Bir şirketin yapay zeka modellerini eğitmek ve ince ayar yapmak için sınırlı bütçesi varsa, paralarının karşılığını maksimum miktarda bilgi işlem artışı elde etmek için bunu FlexAI platformunda ayarlayabilirler. Bu, daha ucuz (ancak daha yavaş) bilgi işlem için Intel’den geçmek anlamına gelebilir, ancak bir geliştiricinin mümkün olan en hızlı çıktıyı gerektiren küçük bir çalışması varsa, o zaman bunun yerine Nvidia aracılığıyla kanalize edilebilir.
FlexAI temelde bir “talep toplayıcı”dır, donanımı geleneksel yollarla kiralar ve Intel ve AMD’deki kişilerle olan “güçlü bağlantılarını” kullanarak kendi müşteri tabanına yaydığı ayrıcalıklı fiyatları güvence altına alır. Bu mutlaka Nvidia’nın liderlerinden geri adım atmak anlamına gelmiyor, ancak muhtemelen büyük ölçüde – Intel ve AMD’nin Nvidia’nın ardından kalan GPU artıkları için mücadele etmesiyle – bu tür toplayıcılarla top oynamaları için büyük bir teşvik olduğu anlamına gelebilir. FlexAI olarak.
“Müşteriler için çalışmasını sağlayabilirsem ve altyapılarına onlarca, yüzlerce müşteri getirebilirsem, onlar da [Intel and AMD] çok mutlu olacak,” dedi Tripathi.
Bu, doğrudan Nvidia donanımına odaklanan, iyi finanse edilen CoreWeave ve Lambda Labs gibi alandaki benzer GPU bulut oynatıcılarının tam tersidir.
Tripathi, “Yapay zeka hesaplamasını mevcut genel amaçlı bulut bilişimin olduğu noktaya getirmek istiyorum” dedi. “Yapay zeka üzerinde çoklu bulut yapamazsınız. Belirli bir donanımı, GPU sayısını, altyapıyı, bağlantıyı seçmeniz ve ardından bunların bakımını kendiniz yapmanız gerekir. Bugün yapay zeka hesaplaması elde etmenin tek yolu bu.”
Lansman ortaklarının tam olarak kim olduğu sorulduğunda Tripathi, bazılarının “resmi taahhütlerinin” olmaması nedeniyle hepsinin adını veremediğini söyledi.
“Intel güçlü bir ortak, kesinlikle altyapı sağlıyorlar, AMD de altyapı sağlayan bir ortak” dedi. “Ancak Nvidia ve diğer birkaç silikon şirketi ile henüz paylaşmaya hazır olmadığımız ikinci bir ortaklık katmanı var, ancak bunların hepsi karışım ve Mutabakat Anlaşması’nın içinde. [memorandums of understanding] Şu anda imzalar atılıyor.”
Elon etkisi
Dünyanın en büyük teknoloji şirketlerinden bazılarında çalışmış olan Tripathi, önündeki zorluklarla başa çıkmak için fazlasıyla donanımlı.
“GPU’lar hakkında yeterince bilgim var; Eskiden GPU’lar üretiyordum,” dedi Tripathi, Nvidia’daki yedi yıllık görevinden bahsetti ve 2007’de ilk iPhone’u piyasaya sürerken Apple’a katılmasıyla sona erdi. “Apple’da gerçek müşteri sorunlarını çözmeye odaklandım. Apple ilk SoC’lerini oluşturmaya başladığında oradaydım [system on chips] telefonlar için.”
Tripathi ayrıca 2016’dan 2018’e kadar Tesla’da donanım mühendisliği lideri olarak iki yıl geçirdi ve üst düzey iki kişinin aniden şirketten ayrılmasının ardından son altı ayında doğrudan Elon Musk’un altında çalışmaya başladı.
“Tesla’da öğrendiğim ve girişimime kattığım şey, bilim ve fizik dışında hiçbir kısıtlamanın olmadığıdır” dedi. “Bugün işlerin nasıl yapıldığı, olması gerektiği ya da yapılması gerektiği gibi değil. İlk prensiplerden itibaren doğru olanın peşinden gitmeli, bunun için de her kara kutuyu kaldırmalısınız.”
Tripathi, Tesla’nın kendi çiplerini üretmeye geçişinde yer aldı; bu, o zamandan beri diğer otomobil üreticilerinin yanı sıra GM ve Hyundai tarafından da taklit edilen bir hareket.
“Tesla’da yaptığım ilk şeylerden biri, bir arabada kaç tane mikrodenetleyici bulunduğunu bulmaktı ve bunu yapmak için, kelimenin tam anlamıyla, etrafında metal koruyucu ve muhafaza bulunan o büyük kara kutulardan bir demetini ayırmamız gerekiyordu. Tripathi, “Orada bu gerçekten çok küçük mikrodenetleyicileri bulacaksınız” dedi. “Sonunda bunu bir masaya koyduk, ortaya koyduk ve şöyle dedik: ‘Elon, bir arabada 50 mikrodenetleyici var. Ve bazen onlara 1000 kat marj ödüyoruz çünkü bunlar büyük bir metal mahfaza içinde korunuyor ve korunuyor.’ O da ‘Hadi gidip kendimizinkini yapalım’ dedi. Ve biz de bunu yaptık.”
Teminat olarak GPU’lar
Geleceğe baktığımızda FlexAI’nin veri merkezleri de dahil olmak üzere kendi altyapısını oluşturma arzusu da var. Tripathi, bunun borç finansmanı ile finanse edileceğini ve CoreWeave ve Lambda Labs gibi alandaki rakiplerin daha fazla özsermaye vermek yerine kredileri güvence altına almak için teminat olarak Nvidia çiplerini kullandığını gören son trendi temel aldığını söyledi.
Tripathi, “Bankacılar artık GPU’ları teminat olarak nasıl kullanacaklarını biliyor” dedi. “Neden eşitlikten vazgeçelim ki? Gerçek bir bilgi işlem sağlayıcısı oluncaya kadar şirketimizin değeri, veri merkezleri kurmaya yatırım yapmak için ihtiyaç duyduğumuz yüz milyonlarca doları sağlamaya yeterli değildir. Eğer sadece eşitlik yaparsak, para gittiğinde yok oluruz. Ancak bunu gerçekten teminat olarak GPU’lara yatırırsak, GPU’ları alıp başka bir veri merkezine koyabilirler.”
Kaynak: https://techcrunch.com/2024/04/23/french-startup-flexai-exits-stealth-with-30m-to-ease-access-to-ai-compute/