Η Amazon Web Services ανακοίνωσε το Trainium2, ένα τσιπ για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης, και θα προσφέρει επίσης πρόσβαση στις μονάδες επεξεργασίας γραφικών H200 Tensor Core επόμενης γενιάς της Nvidia.

Η μονάδα cloud AWS της Amazon ανακοίνωσε νέα τσιπ για τους πελάτες για τη δημιουργία και εκτέλεση εφαρμογών τεχνητής νοημοσύνης, καθώς και σχέδια για την παροχή πρόσβασης στα πιο πρόσφατα τσιπ της Nvidia.

Η Amazon Web Services προσπαθεί να ξεχωρίσει ως πάροχος cloud με μια ποικιλία από οικονομικά αποδοτικές επιλογές. Δεν θα πουλά απλώς φθηνά προϊόντα με επωνυμία Amazon. Ακριβώς όπως και στην ηλεκτρονική αγορά λιανικής πώλησης, το cloud της Amazon θα διαθέτει κορυφαία προϊόντα από άλλους προμηθευτές, συμπεριλαμβανομένων των ιδιαίτερα περιζήτητων GPU από την κορυφαία εταιρεία κατασκευής chip AI Nvidia.

Η ζήτηση για GPU της Nvidia έχει εκτοξευθεί από τότε που η startup OpenAI κυκλοφόρησε το chatbot ChatGPT πέρυσι, εντυπωσιάζοντας τους ανθρώπους με τις ικανότητές του να συνοψίζει πληροφορίες και να συνθέτει κείμενο που μοιάζει με άνθρωπο. Αυτό οδήγησε σε έλλειψη τσιπ της Nvidia, καθώς οι εταιρείες αγωνίστηκαν για να ενσωματώσουν παρόμοιες τεχνολογίες τεχνητής νοημοσύνης στα προϊόντα τους.

Η διπλή προσέγγιση της Amazon να δημιουργήσει τα δικά της τσιπ και να επιτρέπει στους πελάτες να έχουν πρόσβαση στα πιο πρόσφατα τσιπ της Nvidia θα τη βοηθήσει ενάντια στον κορυφαίο ανταγωνιστή της στο cloud computing, τη Microsoft. Νωρίτερα αυτό το μήνα, η Microsoft ακολούθησε παρόμοια προσέγγιση αποκαλύπτοντας το εναρκτήριο τσιπ AI, το Maia 100, και λέγοντας επίσης ότι το cloud Azure θα έχει GPU Nvidia H200.

Οι ανακοινώσεις έγιναν στο συνέδριο Reinvent στο Λας Βέγκας την Τρίτη. Συγκεκριμένα, η AWS είπε ότι θα προσφέρει πρόσβαση σε Nvidia πιο πρόσφατες μονάδες επεξεργασίας γραφικών H200 AI. Ανακοίνωσε επίσης το νέο της τσιπ τεχνητής νοημοσύνης Trainium2 και τον γενικής χρήσης επεξεργαστή Graviton4.

Η νέα GPU της Nvidia είναι μια αναβάθμιση από το H100, το τσιπ OpenAI που χρησιμοποιείται για την εκπαίδευση του πιο προηγμένου μοντέλου μεγάλης γλώσσας, GPT-4. Μεγάλες εταιρείες, νεοφυείς επιχειρήσεις και κυβερνητικές υπηρεσίες διεκδικούν περιορισμένη προσφορά των τσιπ, πράγμα που σημαίνει ότι υπάρχει μεγάλη ζήτηση για ενοικίασή τους από παρόχους cloud όπως η Amazon επίσης. Η Nvidia είπε ότι το H200 θα παράγει έξοδο σχεδόν δύο φορές πιο γρήγορα από το H100.

Διαβάστε ακόμη: