Μια γαλλική startup έχει συγκεντρώσει μια τεράστια αρχική επένδυση για την «επαναρχιτεκτονική της υποδομής υπολογιστών» για προγραμματιστές που θέλουν να δημιουργήσουν και να εκπαιδεύσουν εφαρμογές τεχνητής νοημοσύνης πιο αποτελεσματικά.
FlexAIόπως αποκαλείται η εταιρεία, λειτουργεί σε μυστικότητα από τον Οκτώβριο του 2023, αλλά η εταιρεία με έδρα το Παρίσι ξεκινά επίσημα την Τετάρτη με χρηματοδότηση 28,5 εκατομμυρίων ευρώ (30 εκατομμύρια δολάρια), ενώ πειράζει το πρώτο της προϊόν: μια υπηρεσία cloud κατά παραγγελία για Εκπαίδευση AI.
Αυτό είναι ένα ογκώδες κομμάτι της αλλαγής για έναν γύρο σπόρων, που κανονικά σημαίνει πραγματικό ουσιαστικό γενεαλογικό ιδρυτή — και αυτό συμβαίνει εδώ. Συνιδρυτής και Διευθύνων Σύμβουλος της FlexAI Brijesh Tripathi ήταν προηγουμένως ανώτερος μηχανικός σχεδιασμού στον κολοσσό GPU και τώρα AI αγάπη μου Nvidia, πριν προσγειωθεί σε διάφορους ανώτερους ρόλους μηχανικού και αρχιτέκτονα στην Apple. Tesla (εργάζεται απευθείας υπό τον Έλον Μασκ). Zoox (πριν Η Amazon απέκτησε η εκκίνηση αυτόνομης οδήγησης). και, πιο πρόσφατα, η Tripathi ήταν Αντιπρόεδρος του τμήματος AI και υπερυπολογιστικής πλατφόρμας της Intel, AXG.
Συνιδρυτής και CTO της FlexAI Νταλί Κιλάνι έχει επίσης ένα εντυπωσιακό βιογραφικό σημείωμα, υπηρετώντας σε διάφορους τεχνικούς ρόλους σε εταιρείες όπως η Nvidia και η Zynga, ενώ πιο πρόσφατα κατέλαβε τον ρόλο του CTO στο Γαλλική startup Lifenη οποία αναπτύσσει ψηφιακή υποδομή για τον κλάδο της υγείας.
Επικεφαλής του γύρου ήταν η Alpha Intelligence Capital (AIC), η Elaia Partners και η Heartcore Capital, με τη συμμετοχή της Frst Capital, της Motier Ventures, της Partech και του CEO της InstaDeep, Karim Beguir.
Το υπολογιστικό αίνιγμα
Για να κατανοήσετε τι επιχειρούν οι Tripathi και Kilani με το FlexAI, αξίζει πρώτα να καταλάβετε τι αντιμετωπίζουν οι προγραμματιστές και οι επαγγελματίες τεχνητής νοημοσύνης όσον αφορά την πρόσβαση στον «υπολογισμό». Αυτό αναφέρεται στην ισχύ επεξεργασίας, την υποδομή και τους πόρους που απαιτούνται για την εκτέλεση υπολογιστικών εργασιών, όπως η επεξεργασία δεδομένων, η εκτέλεση αλγορίθμων και η εκτέλεση μοντέλων μηχανικής μάθησης.
«Η χρήση οποιασδήποτε υποδομής στον χώρο της τεχνητής νοημοσύνης είναι περίπλοκη. δεν είναι για άτομα με λιποθυμία και δεν είναι για άπειρους», είπε η Tripathi στο TechCrunch. “Απαιτεί να γνωρίζετε πάρα πολλά για το πώς να δημιουργήσετε υποδομή για να μπορέσετε να τη χρησιμοποιήσετε.”
Αντίθετα, το οικοσύστημα δημόσιου νέφους που έχει εξελιχθεί αυτές τις δύο τελευταίες δεκαετίες χρησιμεύει ως ένα καλό παράδειγμα του πώς μια βιομηχανία έχει αναδυθεί από την ανάγκη των προγραμματιστών να δημιουργούν εφαρμογές χωρίς να ανησυχούν πάρα πολύ για το πίσω μέρος.
«Εάν είστε μικρός προγραμματιστής και θέλετε να γράψετε μια εφαρμογή, δεν χρειάζεται να ξέρετε πού εκτελείται ή ποιο είναι το πίσω μέρος — απλά πρέπει να περιστρέψετε ένα EC2 (Amazon Elastic Compute cloud) παράδειγμα και τελειώσατε», είπε η Τριπάθη. “Δεν μπορείτε να το κάνετε αυτό με τον υπολογισμό AI σήμερα.”
Στη σφαίρα της τεχνητής νοημοσύνης, οι προγραμματιστές πρέπει να καταλάβουν πόσες GPU (μονάδες επεξεργασίας γραφικών) χρειάζονται για να διασυνδεθούν σε ποιον τύπο δικτύου, το οποίο διαχειρίζεται μέσω ενός οικοσυστήματος λογισμικού για το οποίο είναι εξ ολοκλήρου υπεύθυνοι για τη ρύθμιση. Εάν μια GPU ή ένα δίκτυο αποτύχει ή αν κάτι σε αυτήν την αλυσίδα πάει στραβά, το βάρος είναι στον προγραμματιστή να το ταξινομήσει.
«Θέλουμε να φέρουμε την υπολογιστική υποδομή τεχνητής νοημοσύνης στο ίδιο επίπεδο απλότητας που έχει φτάσει το σύννεφο γενικής χρήσης — μετά από 20 χρόνια, ναι, αλλά δεν υπάρχει κανένας λόγος για τον οποίο η υπολογιστική τεχνητή νοημοσύνη δεν μπορεί να δει τα ίδια οφέλη», είπε ο Tripathi. «Θέλουμε να φτάσουμε σε ένα σημείο όπου η εκτέλεση φόρτου εργασίας τεχνητής νοημοσύνης δεν απαιτεί από εσάς να γίνετε ειδικοί στα κέντρα δεδομένων».
Με την τρέχουσα επανάληψη του προϊόντος της να διανύει τους ρυθμούς της με λίγους πελάτες beta, η FlexAI θα κυκλοφορήσει το πρώτο της εμπορικό προϊόν αργότερα φέτος. Είναι βασικά μια υπηρεσία cloud που συνδέει τους προγραμματιστές με «εικονικό ετερογενή υπολογισμό», που σημαίνει ότι μπορούν να εκτελέσουν τον φόρτο εργασίας τους και να αναπτύξουν μοντέλα τεχνητής νοημοσύνης σε πολλαπλές αρχιτεκτονικές, πληρώνοντας με βάση τη χρήση αντί να νοικιάζουν GPU με βάση δολάρια ανά ώρα.
Οι GPU είναι ζωτικής σημασίας γρανάζια στην ανάπτυξη τεχνητής νοημοσύνης, που χρησιμεύουν για την εκπαίδευση και τη λειτουργία μεγάλων γλωσσικών μοντέλων (LLM), για παράδειγμα. Η Nvidia είναι ένας από τους κορυφαίους παίκτες στον χώρο της GPU και ένας από τους κύριους δικαιούχους της επανάστασης της τεχνητής νοημοσύνης που πυροδοτήθηκε από OpenAI και ChatGPT. Στους 12 μήνες από το OpenAI κυκλοφόρησε ένα API για το ChatGPT τον Μάρτιο του 2023επιτρέποντας στους προγραμματιστές να δημιουργήσουν τη λειτουργικότητα του ChatGPT στις δικές τους εφαρμογές, οι μετοχές της Nvidia αυξήθηκαν από περίπου 500 δισεκατομμύρια δολάρια σε περισσότερα από 2 τρισεκατομμύρια δολάρια.
Τα LLM ξεχύνονται από τον κλάδο της τεχνολογίας, με τη ζήτηση για GPU να εκτοξεύεται παράλληλα. Ωστόσο, οι GPU είναι ακριβές στην εκτέλεση και η ενοικίασή τους από έναν πάροχο cloud για μικρότερες εργασίες ή ad-hoc περιπτώσεις χρήσης δεν έχει πάντα νόημα και μπορεί να είναι απαγορευτικά ακριβό. αυτός είναι ο λόγος Η AWS ασχολείται με χρονικά περιορισμένες ενοικιάσεις για μικρότερα έργα τεχνητής νοημοσύνης. Αλλά η ενοικίαση εξακολουθεί να είναι ενοικίαση, γι’ αυτό το FlexAI θέλει να αφαιρέσει τις υποκείμενες πολυπλοκότητες και να αφήσει τους πελάτες να έχουν πρόσβαση στο AI στον υπολογισμό ανάλογα με τις ανάγκες.
“Multicloud για AI”
Το σημείο εκκίνησης του FlexAI είναι ότι οι περισσότεροι προγραμματιστές δεν το κάνουν Πραγματικά νοιάζονται ως επί το πλείστον ποιανού GPU ή τσιπ χρησιμοποιούν, είτε πρόκειται για Nvidia, AMD, Intel, Graphcore ή Cerebra. Το κύριο μέλημά τους είναι να μπορούν να αναπτύξουν την τεχνητή νοημοσύνη τους και να δημιουργήσουν εφαρμογές εντός των δημοσιονομικών περιορισμών τους.
Εδώ έρχεται η ιδέα του FlexAI για «καθολικό υπολογισμό AI», όπου το FlexAI λαμβάνει τις απαιτήσεις του χρήστη και το κατανέμει σε οποιαδήποτε αρχιτεκτονική έχει νόημα για τη συγκεκριμένη εργασία, φροντίζοντας για όλες τις απαραίτητες μετατροπές στις διάφορες πλατφόρμες, είτε Η υποδομή Gaudi της Intel, Rocm της AMD ή Το CUDA της Nvidia.
«Αυτό σημαίνει ότι ο προγραμματιστής επικεντρώνεται μόνο στη δημιουργία, την εκπαίδευση και τη χρήση μοντέλων», είπε ο Tripathi. «Φροντίζουμε τα πάντα από κάτω. Οι αποτυχίες, η ανάκτηση, η αξιοπιστία, διαχειριζόμαστε όλα από εμάς και πληρώνετε για ό,τι χρησιμοποιείτε.”
Με πολλούς τρόπους, το FlexAI σκοπεύει να επιταχύνει για την τεχνητή νοημοσύνη ό,τι έχει ήδη συμβεί στο cloud, που σημαίνει κάτι περισσότερο από την αναπαραγωγή του μοντέλου πληρωμής ανά χρήση: Σημαίνει τη δυνατότητα να μεταβείτε σε “multicloud” βασιζόμενοι στα διαφορετικά οφέλη διαφορετικών υποδομών GPU και chip.
Για παράδειγμα, το FlexAI θα διοχετεύει τον συγκεκριμένο φόρτο εργασίας ενός πελάτη ανάλογα με τις προτεραιότητές του. Εάν μια εταιρεία έχει περιορισμένο προϋπολογισμό για εκπαίδευση και τελειοποίηση των μοντέλων τεχνητής νοημοσύνης της, μπορεί να το ρυθμίσει στην πλατφόρμα FlexAI για να πάρει το μέγιστο ποσό υπολογισμού για το ποσό της. Αυτό μπορεί να σημαίνει ότι περνάτε από την Intel για φθηνότερους (αλλά πιο αργούς) υπολογισμούς, αλλά εάν ένας προγραμματιστής έχει μια μικρή εκτέλεση που απαιτεί την ταχύτερη δυνατή έξοδο, τότε μπορεί να διοχετευτεί μέσω της Nvidia.
Κάτω από την κουκούλα, το FlexAI είναι βασικά ένας «συσσωρευτής ζήτησης», ενοικιάζοντας το ίδιο το υλικό με παραδοσιακά μέσα και, χρησιμοποιώντας τις «ισχυρές συνδέσεις» του με τους ανθρώπους της Intel και της AMD, εξασφαλίζει προνομιακές τιμές που κατανέμει στη δική του βάση πελατών. Αυτό δεν σημαίνει απαραίτητα ότι θα παρακάμψετε την Nvidia, αλλά πιθανώς σημαίνει ότι σε μεγάλο βαθμό — με Intel και AMD παλεύουν για αποκόμματα GPU έμεινε μετά την Nvidia — υπάρχει ένα τεράστιο κίνητρο για αυτούς να παίξουν μπάλα με aggregators όπως το FlexAI.
«Αν μπορέσω να το κάνω να λειτουργήσει για τους πελάτες και να φέρω δεκάδες έως εκατοντάδες πελάτες στην υποδομή τους, αυτοί [Intel and AMD] θα είμαι πολύ χαρούμενος», είπε η Τριπάθη.
Αυτό έρχεται σε αντίθεση με παρόμοια προγράμματα αναπαραγωγής cloud GPU στο χώρο όπως το καλά χρηματοδοτούμενο CoreWeave και Lambda Labsτα οποία επικεντρώνονται ακριβώς στο υλικό Nvidia.
«Θέλω να φτάσω τον υπολογισμό της τεχνητής νοημοσύνης στο σημείο όπου βρίσκεται το τρέχον υπολογιστικό νέφος γενικού σκοπού», σημείωσε η Τριπάθι. «Δεν μπορείτε να κάνετε multicloud στο AI. Πρέπει να επιλέξετε συγκεκριμένο υλικό, αριθμό GPU, υποδομή, συνδεσιμότητα και, στη συνέχεια, να το συντηρήσετε μόνοι σας. Σήμερα, αυτός είναι ο μόνος τρόπος για να αποκτήσετε πραγματικά υπολογιστές AI».
Όταν ρωτήθηκε ποιοι είναι οι ακριβείς εταίροι εκτόξευσης, ο Tripathi είπε ότι δεν ήταν σε θέση να τους κατονομάσει όλους λόγω έλλειψης «επίσημων δεσμεύσεων» από ορισμένους από αυτούς.
«Η Intel είναι ένας ισχυρός εταίρος, σίγουρα παρέχει υποδομή και η AMD είναι ένας συνεργάτης που παρέχει υποδομές», είπε. «Αλλά υπάρχει ένα δεύτερο επίπεδο συνεργασιών που συμβαίνει με τη Nvidia και μερικές άλλες εταιρείες πυριτίου που δεν είμαστε ακόμη έτοιμοι να μοιραστούμε, αλλά είναι όλες στο μείγμα και τα ΜΣ [memorandums of understanding] υπογράφονται αυτή τη στιγμή».
Το φαινόμενο Elon
Η Tripathi είναι περισσότερο από εξοπλισμένη για να αντιμετωπίσει τις προκλήσεις που έρχονται, έχοντας εργαστεί σε μερικές από τις μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο.
«Γνωρίζω αρκετά για τις GPU. Συνήθιζα να έφτιαχνα GPU», είπε ο Tripathi για την επταετή θητεία του στη Nvidia, που έληξε το 2007 όταν πήδηξε για την Apple όπως ήταν. λανσάροντας το πρώτο iPhone. «Στην Apple, επικεντρώθηκα στην επίλυση πραγματικών προβλημάτων πελατών. Ήμουν εκεί όταν η Apple άρχισε να κατασκευάζει τα πρώτα της SoC [system on chips] για τηλέφωνα.”
Ο Tripathi πέρασε επίσης δύο χρόνια στην Tesla από το 2016 έως το 2018 ως επικεφαλής μηχανικός υλικού, όπου κατέληξε να εργάζεται απευθείας υπό τον Έλον Μασκ τους τελευταίους έξι μήνες του, αφού δύο άτομα από πάνω του αποχώρησαν απότομα από την εταιρεία.
«Στην Tesla, αυτό που έμαθα και ασχολούμαι με την εκκίνηση μου είναι ότι δεν υπάρχουν άλλοι περιορισμοί εκτός από την επιστήμη και τη φυσική», είπε. «Το πώς γίνονται τα πράγματα σήμερα δεν είναι όπως πρέπει ή πρέπει να γίνει. Θα πρέπει να ακολουθήσετε αυτό που το σωστό είναι να κάνετε από τις πρώτες αρχές, και για να το κάνετε αυτό, αφαιρέστε κάθε μαύρο κουτί».
Τριπαθή συμμετείχε σε Η μετάβαση της Tesla στην κατασκευή των δικών της τσιπμια κίνηση που έγινε από τότε μιμείται από την GM και Hyundaiμεταξύ άλλων αυτοκινητοβιομηχανιών.
«Ένα από τα πρώτα πράγματα που έκανα στην Tesla ήταν να καταλάβω πόσοι μικροελεγκτές υπάρχουν σε ένα αυτοκίνητο και για να το κάνουμε αυτό, κυριολεκτικά έπρεπε να ταξινομήσουμε ένα σωρό από αυτά τα μεγάλα μαύρα κουτιά με μεταλλική θωράκιση και περίβλημα γύρω του. βρείτε αυτούς τους πολύ μικροσκοπικούς μικροελεγκτές εκεί μέσα», είπε ο Tripathi. «Και καταλήξαμε να το βάλουμε σε ένα τραπέζι, το απλώσαμε και είπαμε: ‘Elon, υπάρχουν 50 μικροελεγκτές σε ένα αυτοκίνητο. Και μερικές φορές πληρώνουμε 1.000 φορές περιθώρια σε αυτά επειδή είναι θωρακισμένα και προστατευμένα σε ένα μεγάλο μεταλλικό περίβλημα ». Και λέει «πάμε να φτιάξουμε το δικό μας». Και αυτό κάναμε.”
GPU ως εγγύηση
Κοιτάζοντας περαιτέρω στο μέλλον, η FlexAI έχει φιλοδοξίες να δημιουργήσει τη δική της υποδομή, συμπεριλαμβανομένων των κέντρων δεδομένων. Αυτό, είπε η Τριπάθη, θα χρηματοδοτηθεί από τη χρηματοδότηση χρέους, βασιζόμενη σε μια πρόσφατη τάση που έχει δει ανταγωνιστές στο χώρο συμπεριλαμβανομένου του CoreWeave και Τα Lambda Labs χρησιμοποιούν τσιπ Nvidia ως εξασφάλιση για την εξασφάλιση δανείων — αντί να δίνουν περισσότερα ίδια κεφάλαια.
«Οι τραπεζίτες ξέρουν πλέον πώς να χρησιμοποιούν τις GPU ως εξασφαλίσεις», είπε ο Tripathi. «Γιατί να δώσεις μετοχές; Μέχρι να γίνουμε πραγματικός πάροχος υπολογιστών, η αξία της εταιρείας μας δεν είναι αρκετή για να μας εξασφαλίσει τα εκατοντάδες εκατομμύρια δολάρια που απαιτούνται για να επενδύσουμε στην κατασκευή κέντρων δεδομένων. Αν κάναμε μόνο ίδια κεφάλαια, εξαφανιζόμαστε όταν φύγουν τα χρήματα. Αλλά αν το δεσμεύσουμε πραγματικά σε GPU ως εγγύηση, μπορούν να αφαιρέσουν τις GPU και να τις βάλουν σε κάποιο άλλο κέντρο δεδομένων».