Για BMS, BUS, βιομηχανικό, καλώδιο οργάνων.

Καθώς το Φεστιβάλ της Άνοιξης πλησιάζει στο τέλος του, ο ενθουσιασμός γύρω από το DeepSeek παραμένει έντονος. Οι πρόσφατες διακοπές ανέδειξαν ένα σημαντικό αίσθημα ανταγωνισμού στον κλάδο της τεχνολογίας, με πολλούς να συζητούν και να αναλύουν αυτό το «γατόψαρο». Η Silicon Valley βιώνει μια άνευ προηγουμένου αίσθηση κρίσης: οι υποστηρικτές του ανοιχτού κώδικα εκφράζουν ξανά τις απόψεις τους, και ακόμη και η OpenAI επανεκτιμά εάν η στρατηγική κλειστού κώδικα ήταν η καλύτερη επιλογή. Το νέο παράδειγμα του χαμηλότερου υπολογιστικού κόστους έχει προκαλέσει μια αλυσιδωτή αντίδραση μεταξύ των γιγάντων των τσιπ όπως η Nvidia, οδηγώντας σε ρεκόρ ημερήσιων απώλειων αγοραίας αξίας στην ιστορία της χρηματιστηριακής αγοράς των ΗΠΑ, ενώ οι κυβερνητικές υπηρεσίες διερευνούν τη συμμόρφωση των τσιπ που χρησιμοποιεί η DeepSeek. Εν μέσω ανάμεικτων κριτικών για το DeepSeek στο εξωτερικό, στην εγχώρια αγορά, βιώνει εξαιρετική ανάπτυξη. Μετά την κυκλοφορία του μοντέλου R1, η σχετική εφαρμογή έχει δει μια αύξηση στην επισκεψιμότητα, υποδεικνύοντας ότι η ανάπτυξη στους τομείς εφαρμογών θα προωθήσει το συνολικό οικοσύστημα Τεχνητής Νοημοσύνης. Η θετική πτυχή είναι ότι το DeepSeek θα διευρύνει τις δυνατότητες εφαρμογών, υποδηλώνοντας ότι η εξάρτηση από το ChatGPT δεν θα είναι τόσο ακριβή στο μέλλον. Αυτή η μετατόπιση αντικατοπτρίζεται στις πρόσφατες δραστηριότητες του OpenAI, συμπεριλαμβανομένης της παροχής ενός μοντέλου συλλογισμού που ονομάζεται o3-mini σε ελεύθερους χρήστες ως απάντηση στο DeepSeek R1, καθώς και στις επακόλουθες αναβαθμίσεις που έκαναν την αλυσίδα σκέψης του o3-mini δημόσια. Πολλοί χρήστες από το εξωτερικό εξέφρασαν την ευγνωμοσύνη τους στο DeepSeek για αυτές τις εξελίξεις, αν και αυτή η αλυσίδα σκέψης χρησιμεύει ως σύνοψη.
Αισιόδοξα, είναι προφανές ότι το DeepSeek ενοποιεί τους εγχώριους παίκτες. Με επίκεντρο τη μείωση του κόστους εκπαίδευσης, διάφοροι κατασκευαστές τσιπ upstream, ενδιάμεσοι πάροχοι cloud και πολυάριθμες νεοσύστατες επιχειρήσεις συμμετέχουν ενεργά στο οικοσύστημα, ενισχύοντας την οικονομική αποδοτικότητα για τη χρήση του μοντέλου DeepSeek. Σύμφωνα με τα έγγραφα του DeepSeek, η πλήρης εκπαίδευση του μοντέλου V3 απαιτεί μόνο 2,788 εκατομμύρια ώρες GPU H800 και η διαδικασία εκπαίδευσης είναι εξαιρετικά σταθερή. Η αρχιτεκτονική MoE (Mixture of Experts) είναι ζωτικής σημασίας για τη μείωση του κόστους προ-εκπαίδευσης κατά δέκα φορές σε σύγκριση με το Llama 3 με 405 δισεκατομμύρια παραμέτρους. Επί του παρόντος, το V3 είναι το πρώτο δημόσια αναγνωρισμένο μοντέλο που επιδεικνύει τόσο υψηλή αραιότητα στο MoE. Επιπλέον, το MLA (Multi Layer Attention) λειτουργεί συνεργιστικά, ιδιαίτερα σε θέματα συλλογιστικής. «Όσο πιο αραιό είναι το MoE, τόσο μεγαλύτερο είναι το μέγεθος της παρτίδας που απαιτείται κατά τη διάρκεια της συλλογιστικής για την πλήρη αξιοποίηση της υπολογιστικής ισχύος, με το μέγεθος του KVCache να είναι ο βασικός περιοριστικός παράγοντας. Το MLA μειώνει σημαντικά το μέγεθος του KVCache», σημείωσε ένας ερευνητής της Chuanjing Technology σε μια ανάλυση για το AI Technology Review. Συνολικά, η επιτυχία της DeepSeek έγκειται στον συνδυασμό διαφόρων τεχνολογιών, όχι μόνο μίας. Οι ειδικοί του κλάδου επαινούν τις μηχανικές ικανότητες της ομάδας DeepSeek, σημειώνοντας την αριστεία τους στην παράλληλη εκπαίδευση και τη βελτιστοποίηση των χειριστών, επιτυγχάνοντας πρωτοποριακά αποτελέσματα βελτιώνοντας κάθε λεπτομέρεια. Η προσέγγιση ανοιχτού κώδικα της DeepSeek τροφοδοτεί περαιτέρω τη συνολική ανάπτυξη μεγάλων μοντέλων και αναμένεται ότι εάν παρόμοια μοντέλα επεκταθούν σε εικόνες, βίντεο και άλλα, αυτό θα τονώσει σημαντικά τη ζήτηση σε ολόκληρο τον κλάδο.
Ευκαιρίες για Υπηρεσίες Συλλογιστικής από Τρίτους
Τα δεδομένα δείχνουν ότι από την κυκλοφορία του, το DeepSeek έχει συγκεντρώσει 22,15 εκατομμύρια ημερήσιους ενεργούς χρήστες (DAU) μέσα σε μόλις 21 ημέρες, επιτυγχάνοντας το 41,6% της βάσης χρηστών του ChatGPT και ξεπερνώντας τα 16,95 εκατομμύρια ημερήσιους ενεργούς χρήστες του Doubao, καθιστώντας την έτσι την ταχύτερα αναπτυσσόμενη εφαρμογή παγκοσμίως, κατακτώντας την κορυφή του Apple App Store σε 157 χώρες/περιοχές. Ωστόσο, ενώ οι χρήστες συρρέουν μαζικά, οι κυβερνοχάκερ επιτίθενται αδιάκοπα στην εφαρμογή DeepSeek, προκαλώντας σημαντική πίεση στους διακομιστές της. Οι αναλυτές του κλάδου πιστεύουν ότι αυτό οφείλεται εν μέρει στο γεγονός ότι το DeepSeek αναπτύσσει κάρτες για εκπαίδευση, ενώ δεν διαθέτει επαρκή υπολογιστική ισχύ για συλλογισμό. Ένας άνθρωπος του κλάδου ενημέρωσε το AI Technology Review: «Τα συχνά προβλήματα με τους διακομιστές μπορούν να επιλυθούν εύκολα με χρέωση τελών ή χρηματοδότηση για την αγορά περισσότερων μηχανημάτων. Τελικά, εξαρτάται από τις αποφάσεις του DeepSeek». Αυτό παρουσιάζει μια αντιστάθμιση στην εστίαση στην τεχνολογία έναντι της παραγωγικοποίησης. Το DeepSeek έχει βασιστεί σε μεγάλο βαθμό στην κβαντική κβαντοποίηση για αυτοσυντήρηση, έχοντας λάβει μικρή εξωτερική χρηματοδότηση, με αποτέλεσμα σχετικά χαμηλή πίεση ταμειακών ροών και ένα πιο καθαρό τεχνολογικό περιβάλλον. Αυτή τη στιγμή, υπό το πρίσμα των προαναφερθέντων προβλημάτων, ορισμένοι χρήστες προτρέπουν το DeepSeek στα μέσα κοινωνικής δικτύωσης να αυξήσει τα όρια χρήσης ή να εισαγάγει λειτουργίες επί πληρωμή για να βελτιώσει την άνεση των χρηστών. Επιπλέον, οι προγραμματιστές έχουν αρχίσει να χρησιμοποιούν το επίσημο API ή API τρίτων για βελτιστοποίηση. Ωστόσο, η ανοιχτή πλατφόρμα του DeepSeek ανακοίνωσε πρόσφατα: "Οι τρέχοντες πόροι διακομιστή είναι περιορισμένοι και οι επαναφορτίσεις υπηρεσιών API έχουν ανασταλεί".
Αυτό αναμφίβολα ανοίγει περισσότερες ευκαιρίες για τρίτους προμηθευτές στον τομέα των υποδομών τεχνητής νοημοσύνης. Πρόσφατα, πολυάριθμοι εγχώριοι και διεθνείς γίγαντες cloud έχουν λανσάρει τα μοντέλα API της DeepSeek — οι γίγαντες του εξωτερικού, η Microsoft και η Amazon, ήταν μεταξύ των πρώτων που συμμετείχαν στα τέλη Ιανουαρίου. Ο εγχώριος ηγέτης, η Huawei Cloud, έκανε την πρώτη κίνηση, κυκλοφορώντας τις υπηρεσίες συλλογισμού DeepSeek R1 και V3 σε συνεργασία με την Flow, με έδρα τη Silicon, την 1η Φεβρουαρίου. Αναφορές από το AI Technology Review δείχνουν ότι οι υπηρεσίες της Flow, με έδρα τη Silicon, έχουν δει εισροή χρηστών, ουσιαστικά «καταρρέοντας» την πλατφόρμα. Οι τρεις μεγάλες εταιρείες τεχνολογίας — η BAT (Baidu, Alibaba, Tencent) και η ByteDance — εξέδωσαν επίσης προσφορές χαμηλού κόστους, περιορισμένου χρόνου από τις 3 Φεβρουαρίου, θυμίζοντας τους πολέμους τιμών μεταξύ των προμηθευτών cloud πέρυσι που πυροδοτήθηκαν από την κυκλοφορία του μοντέλου V2 της DeepSeek, όπου η DeepSeek άρχισε να αποκαλείται «χασάπης τιμών». Οι φρενήρεις ενέργειες των προμηθευτών cloud αντικατοπτρίζουν τους προηγούμενους ισχυρούς δεσμούς μεταξύ της Microsoft Azure και της OpenAI, όπου το 2019, η Microsoft πραγματοποίησε μια σημαντική επένδυση 1 δισεκατομμυρίου δολαρίων στην OpenAI και αποκόμισε οφέλη μετά την κυκλοφορία του ChatGPT το 2023. Ωστόσο, αυτή η στενή σχέση άρχισε να κλονίζεται μετά την κυκλοφορία του Llama ανοιχτού κώδικα από την Meta, επιτρέποντας σε άλλους προμηθευτές εκτός του οικοσυστήματος Microsoft Azure να ανταγωνιστούν τα μεγάλα μοντέλα τους. Σε αυτήν την περίπτωση, το DeepSeek όχι μόνο ξεπέρασε το ChatGPT όσον αφορά την αύξηση της ζήτησης για προϊόντα, αλλά εισήγαγε επίσης μοντέλα ανοιχτού κώδικα μετά την κυκλοφορία του o1, παρόμοια με τον ενθουσιασμό που περιβάλλει την αναβίωση του GPT-3 από την Llama.
Στην πραγματικότητα, οι πάροχοι cloud τοποθετούνται επίσης ως πύλες κυκλοφορίας για εφαρμογές AI, πράγμα που σημαίνει ότι η εμβάθυνση των δεσμών με τους προγραμματιστές μεταφράζεται σε προληπτικά πλεονεκτήματα. Οι αναφορές δείχνουν ότι το Baidu Smart Cloud είχε πάνω από 15.000 πελάτες που χρησιμοποιούσαν το μοντέλο DeepSeek μέσω της πλατφόρμας Qianfan την ημέρα κυκλοφορίας του μοντέλου. Επιπλέον, αρκετές μικρότερες εταιρείες προσφέρουν λύσεις, συμπεριλαμβανομένων των Flow με βάση το Silicon, Luchen Technology, Chuanjing Technology και διαφόρων παρόχων AI Infra που έχουν ξεκινήσει την υποστήριξη για μοντέλα DeepSeek. Το AI Technology Review έχει μάθει ότι οι τρέχουσες ευκαιρίες βελτιστοποίησης για τοπικές αναπτύξεις του DeepSeek υπάρχουν κυρίως σε δύο τομείς: ο ένας είναι η βελτιστοποίηση για τα χαρακτηριστικά αραιότητας του μοντέλου MoE χρησιμοποιώντας μια προσέγγιση μικτής συλλογιστικής για την τοπική ανάπτυξη του μοντέλου MoE των 671 δισεκατομμυρίων παραμέτρων, ενώ παράλληλα χρησιμοποιείται υβριδική συμπερασματολογία GPU/CPU. Επιπλέον, η βελτιστοποίηση του MLA είναι ζωτικής σημασίας. Ωστόσο, τα δύο μοντέλα του DeepSeek εξακολουθούν να αντιμετωπίζουν ορισμένες προκλήσεις στη βελτιστοποίηση της ανάπτυξης. «Λόγω του μεγέθους του μοντέλου και των πολυάριθμων παραμέτρων, η βελτιστοποίηση είναι πράγματι πολύπλοκη, ιδιαίτερα για τοπικές αναπτύξεις όπου η επίτευξη βέλτιστης ισορροπίας μεταξύ απόδοσης και κόστους θα είναι δύσκολη», δήλωσε ένας ερευνητής από την Chuanjing Technology. Το πιο σημαντικό εμπόδιο έγκειται στην υπέρβαση των ορίων χωρητικότητας μνήμης. «Υιοθετούμε μια ετερογενή προσέγγιση συνεργασίας για την πλήρη αξιοποίηση των CPU και άλλων υπολογιστικών πόρων, τοποθετώντας μόνο τα μη κοινόχρηστα μέρη του αραιού πίνακα MoE σε CPU/DRAM για επεξεργασία χρησιμοποιώντας τελεστές CPU υψηλής απόδοσης, ενώ τα πυκνά τμήματα παραμένουν στην GPU», εξήγησε περαιτέρω. Οι αναφορές δείχνουν ότι το πλαίσιο ανοιχτού κώδικα KTransformers της Chuanjing εισάγει κυρίως διάφορες στρατηγικές και τελεστές στην αρχική υλοποίηση των Transformers μέσω ενός προτύπου, βελτιώνοντας σημαντικά την ταχύτητα συμπερασμάτων χρησιμοποιώντας μεθόδους όπως το CUDAGraph. Το DeepSeek έχει δημιουργήσει ευκαιρίες για αυτές τις νεοσύστατες επιχειρήσεις, καθώς τα οφέλη ανάπτυξης γίνονται εμφανή. Πολλές εταιρείες έχουν αναφέρει αξιοσημείωτη αύξηση πελατών μετά την κυκλοφορία του DeepSeek API, λαμβάνοντας ερωτήματα από προηγούμενους πελάτες που αναζητούσαν βελτιστοποιήσεις. Άτομα του κλάδου έχουν επισημάνει: «Στο παρελθόν, κάπως καθιερωμένες ομάδες πελατών ήταν συχνά δεσμευμένες στις τυποποιημένες υπηρεσίες μεγαλύτερων εταιρειών, στενά συνδεδεμένες με τα πλεονεκτήματα κόστους που οφείλονταν στην κλίμακα. Ωστόσο, μετά την ολοκλήρωση της ανάπτυξης του DeepSeek-R1/V3 πριν από το Φεστιβάλ της Άνοιξης, λάβαμε ξαφνικά αιτήματα συνεργασίας από αρκετούς γνωστούς πελάτες, και ακόμη και προηγουμένως αδρανείς πελάτες ξεκίνησαν επαφές για να εισαγάγουν τις υπηρεσίες DeepSeek μας». Επί του παρόντος, φαίνεται ότι το DeepSeek καθιστά την απόδοση της εξαγωγής συμπερασμάτων μοντέλων ολοένα και πιο κρίσιμη και, με την ευρύτερη υιοθέτηση μεγάλων μοντέλων, αυτό θα συνεχίσει να επηρεάζει σημαντικά την ανάπτυξη στον κλάδο των υποδομών τεχνητής νοημοσύνης. Εάν ένα μοντέλο επιπέδου DeepSeek μπορούσε να αναπτυχθεί τοπικά με χαμηλό κόστος, θα βοηθούσε σημαντικά τις προσπάθειες ψηφιακού μετασχηματισμού της κυβέρνησης και των επιχειρήσεων. Ωστόσο, οι προκλήσεις παραμένουν, καθώς ορισμένοι πελάτες μπορεί να έχουν υψηλές προσδοκίες σχετικά με τις δυνατότητες των μεγάλων μοντέλων, καθιστώντας πιο προφανές ότι η εξισορρόπηση της απόδοσης και του κόστους καθίσταται ζωτικής σημασίας στην πρακτική ανάπτυξη.
Για να αξιολογήσετε εάν το DeepSeek είναι καλύτερο από το ChatGPT, είναι σημαντικό να κατανοήσετε τις βασικές διαφορές, τα δυνατά σημεία και τις περιπτώσεις χρήσης τους. Ακολουθεί μια ολοκληρωμένη σύγκριση:
Χαρακτηριστικό/Όψη | Βαθιά Αναζήτηση | ChatGPT |
---|---|---|
Ιδιοκτησία | Αναπτύχθηκε από μια κινεζική εταιρεία | Αναπτύχθηκε από την OpenAI |
Μοντέλο πηγής | Ανοιχτού κώδικα | Ιδιόκτητος |
Κόστος | Δωρεάν χρήση· φθηνότερες επιλογές πρόσβασης API | Τιμολόγηση συνδρομής ή πληρωμής ανά χρήση |
Προσαρμογή | Υψηλή δυνατότητα προσαρμογής, επιτρέποντας στους χρήστες να το τροποποιήσουν και να το αναπτύξουν | Περιορισμένη διαθέσιμη προσαρμογή |
Απόδοση σε συγκεκριμένες εργασίες | Διαπρέπει σε ορισμένους τομείς όπως η ανάλυση δεδομένων και η ανάκτηση πληροφοριών | Ευέλικτο με ισχυρή απόδοση σε δημιουργική γραφή και εργασίες συνομιλίας |
Υποστήριξη Γλωσσών | Ισχυρή έμφαση στην κινεζική γλώσσα και τον πολιτισμό | Ευρεία υποστήριξη γλωσσών αλλά με επίκεντρο τις ΗΠΑ |
Κόστος Εκπαίδευσης | Χαμηλότερο κόστος εκπαίδευσης, βελτιστοποιημένο για αποτελεσματικότητα | Υψηλότερο κόστος εκπαίδευσης, που απαιτεί σημαντικούς υπολογιστικούς πόρους |
Παραλλαγή απόκρισης | Μπορεί να προσφέρει διαφορετικές απαντήσεις, πιθανώς επηρεασμένες από γεωπολιτικό πλαίσιο | Συνεπείς απαντήσεις βασισμένες σε δεδομένα εκπαίδευσης |
Στοχευμένο κοινό | Απευθύνεται σε προγραμματιστές και ερευνητές που επιθυμούν ευελιξία | Απευθύνεται σε γενικούς χρήστες που αναζητούν δυνατότητες συνομιλίας |
Περιπτώσεις χρήσης | Πιο αποτελεσματικό για δημιουργία κώδικα και γρήγορες εργασίες | Ιδανικό για τη δημιουργία κειμένου, την απάντηση σε ερωτήματα και τη συμμετοχή σε διάλογο |
Μια κριτική οπτική για την «διατάραξη της Nvidia»
Προς το παρόν, εκτός από την Huawei, αρκετοί εγχώριοι κατασκευαστές τσιπ όπως οι Moore Threads, Muxi, Biran Technology και Tianxu Zhixin προσαρμόζονται επίσης στα δύο μοντέλα του DeepSeek. Ένας κατασκευαστής τσιπ δήλωσε στο AI Technology Review: «Η δομή του DeepSeek επιδεικνύει καινοτομία, ωστόσο παραμένει ένα LLM. Η προσαρμογή μας στο DeepSeek επικεντρώνεται κυρίως σε εφαρμογές συλλογισμού, καθιστώντας την τεχνική υλοποίηση αρκετά απλή και γρήγορη». Ωστόσο, η προσέγγιση του Υπουργείου Παιδείας απαιτεί υψηλότερες απαιτήσεις όσον αφορά την αποθήκευση και τη διανομή, σε συνδυασμό με τη διασφάλιση συμβατότητας κατά την ανάπτυξη με εγχώρια τσιπ, παρουσιάζοντας πολλές μηχανικές προκλήσεις που χρειάζονται επίλυση κατά την προσαρμογή. «Προς το παρόν, η εγχώρια υπολογιστική ισχύς δεν ταιριάζει με την Nvidia σε χρηστικότητα και σταθερότητα, απαιτώντας τη συμμετοχή του αρχικού εργοστασίου για τη ρύθμιση του περιβάλλοντος λογισμικού, την αντιμετώπιση προβλημάτων και τη βελτιστοποίηση της βασικής απόδοσης», δήλωσε ένας επαγγελματίας του κλάδου βασιζόμενος στην πρακτική εμπειρία. Ταυτόχρονα, «Λόγω της μεγάλης κλίμακας παραμέτρων του DeepSeek R1, η εγχώρια υπολογιστική ισχύς απαιτεί περισσότερους κόμβους για παραλληλισμό. Επιπλέον, οι εγχώριες προδιαγραφές υλικού εξακολουθούν να είναι κάπως πίσω. Για παράδειγμα, το Huawei 910B δεν μπορεί προς το παρόν να υποστηρίξει την εξαγωγή συμπερασμάτων FP8 που εισήγαγε το DeepSeek». Ένα από τα σημαντικότερα σημεία του μοντέλου DeepSeek V3 είναι η εισαγωγή ενός πλαισίου εκπαίδευσης μεικτής ακρίβειας FP8, το οποίο έχει επικυρωθεί αποτελεσματικά σε ένα εξαιρετικά μεγάλο μοντέλο, σηματοδοτώντας ένα σημαντικό επίτευγμα. Προηγουμένως, σημαντικοί παίκτες όπως η Microsoft και η Nvidia πρότειναν σχετική εργασία, αλλά υπάρχουν αμφιβολίες στον κλάδο σχετικά με τη σκοπιμότητα. Είναι κατανοητό ότι σε σύγκριση με το INT8, το κύριο πλεονέκτημα του FP8 είναι ότι η κβάντωση μετά την εκπαίδευση μπορεί να επιτύχει σχεδόν χωρίς απώλειες ακρίβεια, ενώ παράλληλα ενισχύει σημαντικά την ταχύτητα συμπερασμάτων. Σε σύγκριση με το FP16, το FP8 μπορεί να επιτύχει έως και δύο φορές επιτάχυνση στην H20 της Nvidia και πάνω από 1,5 φορά επιτάχυνση στην H100. Αξίζει να σημειωθεί ότι, καθώς οι συζητήσεις γύρω από την τάση της εγχώριας υπολογιστικής ισχύος συν τα εγχώρια μοντέλα κερδίζουν έδαφος, οι εικασίες σχετικά με το εάν η Nvidia θα μπορούσε να διαταραχθεί και εάν η τάφρος CUDA θα μπορούσε να παρακαμφθεί, γίνονται ολοένα και πιο διαδεδομένες. Ένα αναμφισβήτητο γεγονός είναι ότι το DeepSeek έχει πράγματι προκαλέσει σημαντική πτώση στην αγοραία αξία της Nvidia, αλλά αυτή η μετατόπιση εγείρει ερωτήματα σχετικά με την ακεραιότητα της υπολογιστικής ισχύος υψηλού επιπέδου της Nvidia. Οι προηγουμένως αποδεκτές αφηγήσεις σχετικά με τη συσσώρευση υπολογιστικών κεφαλαίων αμφισβητούνται, ωστόσο παραμένει δύσκολο για την Nvidia να αντικατασταθεί πλήρως σε σενάρια εκπαίδευσης. Η ανάλυση της βαθιάς χρήσης της CUDA από το DeepSeek δείχνει ότι η ευελιξία - όπως η χρήση SM για επικοινωνία ή ο άμεσος χειρισμός καρτών δικτύου - δεν είναι εφικτή για τις κανονικές GPU. Οι απόψεις του κλάδου τονίζουν ότι η τάφρος της Nvidia περιλαμβάνει ολόκληρο το οικοσύστημα CUDA και όχι μόνο το ίδιο το CUDA, και οι οδηγίες PTX (Parallel Thread Execution) που χρησιμοποιεί το DeepSeek εξακολουθούν να αποτελούν μέρος του οικοσυστήματος CUDA. «Βραχυπρόθεσμα, η υπολογιστική ισχύς της Nvidia δεν μπορεί να παρακαμφθεί - αυτό είναι ιδιαίτερα σαφές στην εκπαίδευση. Ωστόσο, η ανάπτυξη εγχώριων καρτών για συλλογισμό θα είναι σχετικά ευκολότερη, επομένως η πρόοδος πιθανότατα θα είναι ταχύτερη. Η προσαρμογή των εγχώριων καρτών επικεντρώνεται κυρίως στην εξαγωγή συμπερασμάτων. Κανείς δεν έχει ακόμη καταφέρει να εκπαιδεύσει ένα μοντέλο της απόδοσης του DeepSeek σε εγχώριες κάρτες σε κλίμακα», σχολίασε ένας αναλυτής του κλάδου στο AI Technology Review. Συνολικά, από άποψη συμπερασμάτων, οι συνθήκες είναι ενθαρρυντικές για τα εγχώρια τσιπ μεγάλων μοντέλων. Οι ευκαιρίες για τους εγχώριους κατασκευαστές τσιπ στον τομέα της συμπερασματολογίας είναι πιο εμφανείς λόγω των υπερβολικά υψηλών απαιτήσεων εκπαίδευσης, οι οποίες εμποδίζουν την είσοδο. Οι αναλυτές υποστηρίζουν ότι η απλή αξιοποίηση των εγχώριων καρτών συμπερασματολογίας αρκεί. Εάν είναι απαραίτητο, η απόκτηση ενός επιπλέον μηχανήματος είναι εφικτή, ενώ τα μοντέλα εκπαίδευσης θέτουν μοναδικές προκλήσεις - η διαχείριση ενός αυξημένου αριθμού μηχανημάτων μπορεί να γίνει επαχθής και τα υψηλότερα ποσοστά σφάλματος μπορούν να επηρεάσουν αρνητικά τα αποτελέσματα της εκπαίδευσης. Η εκπαίδευση έχει επίσης συγκεκριμένες απαιτήσεις σε κλίμακα συμπλέγματος, ενώ οι απαιτήσεις για τα συμπλέγματα για συμπερασματολογία δεν είναι τόσο αυστηρές, με αποτέλεσμα να χαλαρώνουν οι απαιτήσεις GPU. Προς το παρόν, η απόδοση της μοναδικής κάρτας H20 της Nvidia δεν ξεπερνά αυτή της Huawei ή της Cambrian. Η δύναμή της έγκειται στην ομαδοποίηση. Με βάση τον συνολικό αντίκτυπο στην αγορά υπολογιστικής ισχύος, ο ιδρυτής της Luchen Technology, You Yang, σημείωσε σε συνέντευξή του στο AI Technology Review, "Το DeepSeek μπορεί προσωρινά να υπονομεύσει τη δημιουργία και ενοικίαση εξαιρετικά μεγάλων υπολογιστικών συμπλεγμάτων εκπαίδευσης. Μακροπρόθεσμα, μειώνοντας σημαντικά το κόστος που σχετίζεται με την εκπαίδευση, τη συλλογιστική και τις εφαρμογές μεγάλων μοντέλων, η ζήτηση της αγοράς είναι πιθανό να αυξηθεί. Οι επόμενες επαναλήψεις της Τεχνητής Νοημοσύνης που βασίζονται σε αυτό θα οδηγούν επομένως συνεχώς σε βιώσιμη ζήτηση στην αγορά υπολογιστικής ισχύος." Επιπλέον, «η αυξημένη ζήτηση της DeepSeek για υπηρεσίες συλλογιστικής και βελτιστοποίησης είναι πιο συμβατή με το εγχώριο υπολογιστικό τοπίο, όπου οι τοπικές δυνατότητες είναι σχετικά αδύναμες, συμβάλλοντας στον μετριασμό της σπατάλης από αδρανείς πόρους μετά τη δημιουργία συμπλεγμάτων. Αυτό δημιουργεί βιώσιμες ευκαιρίες για τους κατασκευαστές σε διαφορετικά επίπεδα του εγχώριου υπολογιστικού οικοσυστήματος». Η Luchen Technology συνεργάστηκε με την Huawei Cloud για την κυκλοφορία των API συλλογιστικής της σειράς DeepSeek R1 και των υπηρεσιών απεικόνισης cloud που βασίζονται στην εγχώρια υπολογιστική ισχύ. Ο You Yang εξέφρασε αισιοδοξία για το μέλλον: «Το DeepSeek ενσταλάζει εμπιστοσύνη στις εγχώρια παραγόμενες λύσεις, ενθαρρύνοντας μεγαλύτερο ενθουσιασμό και επενδύσεις σε εγχώριες υπολογιστικές δυνατότητες στο μέλλον».

Σύναψη
Το αν το DeepSeek είναι «καλύτερο» από το ChatGPT εξαρτάται από τις συγκεκριμένες ανάγκες και τους στόχους του χρήστη. Για εργασίες που απαιτούν ευελιξία, χαμηλό κόστος και προσαρμογή, το DeepSeek μπορεί να είναι ανώτερο. Για δημιουργική γραφή, γενική έρευνα και φιλικές προς το χρήστη διεπαφές συνομιλίας, το ChatGPT μπορεί να αναλάβει ηγετικό ρόλο. Κάθε εργαλείο εξυπηρετεί διαφορετικούς σκοπούς, επομένως η επιλογή θα εξαρτηθεί σε μεγάλο βαθμό από το πλαίσιο στο οποίο χρησιμοποιείται.
Καλώδια ελέγχου
Σύστημα Δομημένης Καλωδίωσης
Δίκτυο & Δεδομένα, Καλώδιο Οπτικών Ινών, Σκοινί Patch, Ενότητες, Πρόσοψη
16-18 Απριλίου 2024 Ενέργεια στη Μέση Ανατολή στο Ντουμπάι
16-18 Απριλίου 2024, Securika στη Μόσχα
9 Μαΐου 2024, ΕΚΔΗΛΩΣΗ ΕΝΤΥΠΩΣΗΣ ΝΕΩΝ ΠΡΟΪΟΝΤΩΝ & ΤΕΧΝΟΛΟΓΙΩΝ στη Σαγκάη
22-25 Οκτωβρίου 2024 SECURITY CHINA στο Πεκίνο
19-20 Νοεμβρίου 2024 CONNECTED WORLD, Σαουδική Αραβία
Ώρα δημοσίευσης: 10 Φεβρουαρίου 2025