nowmag.gr

Η Qualcomm ανακοίνωσε ότι θα κυκλοφορήσει νέα τσιπ επιτάχυνσης τεχνητής νοημοσύνης, σηματοδοτώντας νέο ανταγωνισμό για την Nvidia η οποία μέχρι στιγμής κυριαρχεί στην αγορά των ημιαγωγών τεχνητής νοημοσύνης.

Η μετοχή της εταιρείας εκτοξεύτηκε κατά 11% μετά την ανακοίνωση.

Τα τσιπ τεχνητής νοημοσύνης αποτελούν στροφή για την Qualcomm, η οποία μέχρι τώρα εστίαζε σε ημιαγωγούς για ασύρματη συνδεσιμότητα και φορητές συσκευές, όχι σε τεράστια κέντρα δεδομένων.

Η Qualcomm ανέφερε ότι τόσο το AI200, που θα διατεθεί προς πώληση το 2026, όσο και το AI250, που προγραμματίζεται για το 2027, μπορούν να συναρμολογηθούν σε σύστημα που γεμίζει ολόκληρο rack server με υγρή ψύξη.

Έτσι η εταιρεία ακολουθεί την Nvidia και την AMD, οι οποίες προσφέρουν τις μονάδες επεξεργασίας γραφικών τους, ή GPUs, σε συστήματα πλήρους rack που επιτρέπουν έως και 72 τσιπ να λειτουργούν ως ένας υπολογιστής. Τα εργαστήρια τεχνητής νοημοσύνης χρειάζονται αυτή την υπολογιστική ισχύ για να εκτελούν τα πιο προηγμένα AI μοντέλα.


Qualcomm AI200 Rack

Τα τσιπ της Qualcomm που προορίζονται για τα data centers βασίζονται σε μέρη από τα smartphone τσιπ που κατασκευάζει η εταιρεία και είναι υπεύθυνα για τις AI διεργασίες, με την ονομασία Hexagon Neural Processing Units (NPUs).

«Θέλαμε πρώτα να αποδείξουμε την αξία μας σε άλλους τομείς· και αφού ενισχύσαμε εκεί τη θέση μας, ήταν αρκετά εύκολο να περάσουμε στο επόμενο επίπεδο, αυτό των κέντρων δεδομένων», δήλωσε ο Durga Malladi, γενικός διευθυντής της Qualcomm για data centers και edge, σε τηλεδιάσκεψη με δημοσιογράφους την περασμένη εβδομάδα.

Η είσοδος της Qualcomm στον κόσμο των κέντρων δεδομένων σηματοδοτεί νέο ανταγωνισμό στη ταχύτερα αναπτυσσόμενη αγορά της τεχνολογίας: τον εξοπλισμό για server farms που εστιάζουν στην τεχνητή νοημοσύνη. Περίπου 6,7 τρισεκατομμύρια δολάρια σε κεφαλαιουχικές δαπάνες αναμένεται να επενδυθούν σε data centers έως το 2030, με την πλειονότητα να κατευθύνεται σε συστήματα που βασίζονται σε τσιπ τεχνητής νοημοσύνης, σύμφωνα με εκτιμήσεις της McKinsey.

Ο κλάδος κυριαρχείται σήμερα από την Nvidia, της οποίας οι GPUs κατέχουν πάνω από το 90% της αγοράς, οδηγώντας την εταιρεία σε κεφαλαιοποίηση άνω των 4,5 τρισεκατομμυρίων δολαρίων. Τα τσιπ της Nvidia χρησιμοποιήθηκαν για την εκπαίδευση των GPTs της OpenAI, των μεγάλων γλωσσικών μοντέλων που τροφοδοτούν το ChatGPT.

Ωστόσο, εταιρείες όπως η OpenAI αναζητούν εναλλακτικές λύσεις. Νωρίτερα αυτόν τον μήνα, η startup ανακοίνωσε σχέδια αγοράς τσιπ από την AMD —το δεύτερο μεγαλύτερο κατασκευαστή GPU— και ενδεχομένως να αποκτήσει μερίδιο στην εταιρεία. Παράλληλα, η Google, η Amazon και η Microsoft αναπτύσσουν τους δικούς τους επιταχυντές τεχνητής νοημοσύνης για τις cloud υπηρεσίες τους.

Η Qualcomm ανέφερε ότι τα τσιπ της επικεντρώνονται στο inference, δηλαδή στην εκτέλεση μοντέλων τεχνητής νοημοσύνης, και όχι στην εκπαίδευση — τη διαδικασία μέσω της οποίας εργαστήρια όπως η OpenAI δημιουργούν νέα μοντέλα επεξεργαζόμενα τεράστιους όγκους δεδομένων.

Σύμφωνα με την εταιρεία, τα rack-scale συστήματα της Qualcomm θα έχουν χαμηλότερο λειτουργικό κόστος για πελάτες όπως οι πάροχοι cloud υπηρεσιών, ενώ ένα πλήρες rack καταναλώνει περίπου 160 kilowatts — επίπεδο συγκρίσιμο με εκείνο ορισμένων GPU racks της Nvidia.

Ο Malladi πρόσθεσε ότι η Qualcomm θα διαθέτει τα τσιπ τεχνητής νοημοσύνης και άλλα εξαρτήματα και μεμονωμένα, στοχεύοντας κυρίως πελάτες όπως οι hyperscalers που προτιμούν να κατασκευάζουν τα δικά τους racks. Επισήμανε ακόμη ότι εταιρείες όπως η Nvidia και η AMD θα μπορούσαν να αποτελέσουν δυνητικούς πελάτες για ορισμένα εξαρτήματα των data centers της Qualcomm, όπως την κεντρική μονάδα επεξεργασίας (CPU).

«Στόχος μας ήταν να διασφαλίσουμε ότι οι πελάτες μας μπορούν είτε να επιλέξουν ολόκληρη τη λύση είτε να πουν “θα συνδυάσω και θα προσαρμόσω ό,τι χρειάζομαι”», ανέφερε ο Malladi.

Η εταιρεία αρνήθηκε να σχολιάσει το κόστος των τσιπ, των καρτών ή των racks, καθώς και τον αριθμό των NPUs που μπορούν να εγκατασταθούν σε κάθε rack. Τον Μάιο, η Qualcomm είχε ανακοινώσει συνεργασία με τη σαουδαραβική Humain για την προμήθεια κέντρων δεδομένων στην περιοχή με τσιπ inferencing τεχνητής νοημοσύνης. Η Humain θα αποτελέσει πελάτη της Qualcomm, δεσμευόμενη να αναπτύξει υποδομές που θα αξιοποιούν συνολικά ισχύ 200 megawatts.

Τέλος, η Qualcomm υποστήριξε ότι τα τσιπ τεχνητής νοημοσύνης της υπερτερούν έναντι άλλων επιταχυντών ως προς την κατανάλωση ενέργειας, το συνολικό κόστος ιδιοκτησίας και τη διαχείριση της μνήμης. Σύμφωνα με την εταιρεία, οι κάρτες AI που έχει αναπτύξει υποστηρίζουν έως 768 gigabytes μνήμης — υψηλότερη χωρητικότητα από τις αντίστοιχες προτάσεις της Nvidia και της AMD.

Πηγή: https://www.insomnia.gr/

(Κώστας Παπαζαχαρίου, αναδημοσίευση 3/11/2025)

You May Like This