Αναφορά ειδήσεων Τεχνολογία
Ιούλιος 11, 2023

GPT-4Λεπτομέρειες που διέρρευσαν ρίχνουν φως στην τεράστια κλίμακα και την εντυπωσιακή αρχιτεκτονική του

Εν συντομία

Οι πληροφορίες που διέρρευσαν για GPT-4 έχει προκαλέσει ενθουσιασμό στην κοινότητα της AI. Με πάνω από 10 φορές τις παραμέτρους του προκατόχου του, GPT-3, GPT-4 υπολογίζεται ότι έχει 1.8 τρισεκατομμύρια παραμέτρους κατανεμημένες σε 120 στρώματα.

OpenAI εφάρμοσε ένα μοντέλο μείγματος ειδικών (MoE), χρησιμοποιώντας 16 ειδικούς με 111 δισεκατομμύρια παραμέτρους για πολυστρωματικά perceptrons (MLP). Η αποτελεσματική διαδικασία συμπερασμάτων του μοντέλου χρησιμοποιεί 280 δισεκατομμύρια παραμέτρους και 560 TFLOPs ανά εμπρός πέρασμα, αποδεικνύοντας OpenAIδέσμευση της για μεγιστοποίηση της αποτελεσματικότητας και της σχέσης κόστους-αποτελεσματικότητας. Το σύνολο δεδομένων εκπαίδευσης του μοντέλου περιλαμβάνει 13 τρισεκατομμύρια μάρκες, με τελειοποίηση από 8k σε 32k.

OpenAI χρησιμοποίησε τον παραλληλισμό σε GPT-4 να αξιοποιήσουν πλήρως τις δυνατότητες των GPU A100, χρησιμοποιώντας παραλληλισμό τανυστών 8 κατευθύνσεων και παραλληλισμό αγωγών 15 κατευθύνσεων. Η διαδικασία εκπαίδευσης ήταν εκτεταμένη και απαιτούσε πόρους, με κόστος που κυμαινόταν από 32 έως 63 εκατομμύρια δολάρια.

GPT-4Το κόστος συμπερασμάτων του είναι περίπου τρεις φορές υψηλότερο από τον προκάτοχό του, αλλά ενσωματώνει επίσης την προσοχή πολλών ερωτημάτων, τη συνεχή ομαδοποίηση και την κερδοσκοπική αποκωδικοποίηση. Η αρχιτεκτονική συμπερασμάτων λειτουργεί σε ένα σύμπλεγμα 128 GPU, κατανεμημένων σε πολλαπλά κέντρα δεδομένων.

Η πρόσφατη διαρροή λεπτομερειών γύρω από GPT-4 έχει προκαλέσει σοκ στην κοινότητα της τεχνητής νοημοσύνης. Οι πληροφορίες που διέρρευσαν, που ελήφθησαν από μια άγνωστη πηγή, παρέχουν μια ματιά στις δυνατότητες που προκαλούν δέος και την πρωτοφανή κλίμακα αυτού του πρωτοποριακού μοντέλου. Θα αναλύσουμε τα γεγονότα και θα αποκαλύψουμε τις βασικές πτυχές που κάνουν GPT-4 ένα πραγματικό τεχνολογικό θαύμα.

GPT-4Λεπτομέρειες που διέρρευσαν ρίχνουν φως στην τεράστια κλίμακα και την εντυπωσιακή αρχιτεκτονική του
πίστωσης: Metaverse Post (mpost.io)

GPT-4Καταμέτρηση μαζικών παραμέτρων

Μία από τις πιο εντυπωσιακές αποκαλύψεις από τη διαρροή είναι το τεράστιο μέγεθος της GPT-4. Διαθέτει ένα εκπληκτικό μέγεθος, με περισσότερες από 10 φορές τις παραμέτρους του προκατόχου του, GPT-3. Υπολογίζεται ότι έχει ένα συγκλονιστικό σύνολο περίπου 1.8 τρισεκατομμύρια παραμέτρους κατανέμεται σε εντυπωσιακά 120 στρώματα. Αυτή η ουσιαστική αύξηση της κλίμακας συμβάλλει αναμφίβολα σε GPT-4βελτιωμένες δυνατότητες του και δυνατότητες για πρωτοποριακές προόδους.

Μοντέλο Μείγματος Εμπειρογνωμόνων (MoE)

Για να εξασφαλίσετε λογικό κόστος διατηρώντας παράλληλα εξαιρετική απόδοση, OpenAI εφάρμοσε ένα μοντέλο μείγματος εμπειρογνωμόνων (MoE) στο GPT-4. Χρησιμοποιώντας 16 ειδικούς στο μοντέλο, καθένας από τους οποίους αποτελείται από περίπου 111 δισεκατομμύρια παραμέτρους για πολυστρωματικά perceptrons (MLP), OpenAI αποτελεσματικά βελτιστοποιημένη κατανομή πόρων. Αξίζει να σημειωθεί ότι κατά τη διάρκεια κάθε περάσματος προς τα εμπρός, μόνο δύο ειδικοί δρομολογούνται, ελαχιστοποιώντας τις υπολογιστικές απαιτήσεις χωρίς να διακυβεύονται τα αποτελέσματα. Αυτή η καινοτόμος προσέγγιση αποδεικνύει OpenAIτη δέσμευση της για μεγιστοποίηση της αποδοτικότητας και της σχέσης κόστους-αποτελεσματικότητας στα μοντέλα τους.

Απλοποιημένος αλγόριθμος δρομολόγησης MoE

Ενώ το μοντέλο συχνά διερευνά προηγμένους αλγόριθμους δρομολόγησης για την επιλογή ειδικών που θα χειρίζονται κάθε διακριτικό, OpenAIπροσέγγιση του τρέχοντος GPT-4 Το μοντέλο φέρεται να είναι πιο απλό. Ο αλγόριθμος δρομολόγησης που χρησιμοποιείται από το AI φέρεται να είναι σχετικά απλός, αλλά παρόλα αυτά αποτελεσματικός. Περίπου 55 δισεκατομμύρια κοινές παράμετροι για προσοχή διευκολύνουν την αποτελεσματική διανομή των κουπονιών στους κατάλληλους ειδικούς του μοντέλου.

Αποτελεσματικό συμπέρασμα

GPT-4Η διαδικασία συμπερασμάτων του δείχνει την αποτελεσματικότητά του και την υπολογιστική του ικανότητα. Κάθε μπροστινό πέρασμα, αφιερωμένο στη δημιουργία ενός μόνο διακριτικού, χρησιμοποιεί περίπου 280 δισεκατομμύρια παραμέτρους και 560 TFLOPs (πράξεις κινητής υποδιαστολής tera ανά δευτερόλεπτο). Αυτό έρχεται σε πλήρη αντίθεση με την τεράστια κλίμακα του GPT-4, με τις 1.8 τρισεκατομμύρια παραμέτρους και τα 3,700 TFLOPs ανά πάσα μπροστά σε ένα αμιγώς πυκνό μοντέλο. Η αποτελεσματική χρήση των πόρων υπογραμμίζει OpenAIαφοσίωση του στην επίτευξη βέλτιστης απόδοσης χωρίς υπερβολικές υπολογιστικές απαιτήσεις.

Εκτεταμένο σύνολο δεδομένων εκπαίδευσης

GPT-4 έχει εκπαιδευτεί σε ένα κολοσσιαίο σύνολο δεδομένων που περιλαμβάνει περίπου 13 τρισεκατομμύρια μάρκες. Είναι σημαντικό να σημειωθεί ότι αυτά τα διακριτικά περιλαμβάνουν τόσο μοναδικά διακριτικά όσο και μάρκες που αντιστοιχούν σε αριθμούς εποχής. ο εκπαιδευτική διαδικασία περιλαμβάνει δύο εποχές για δεδομένα που βασίζονται σε κείμενο και τέσσερις εποχές για δεδομένα που βασίζονται σε κώδικα. OpenAI αξιοποίησε εκατομμύρια σειρές δεδομένων λεπτομερούς ρύθμισης εντολών που προέρχονται από το ScaleAI και εσωτερικά για να βελτιώσει την απόδοση του μοντέλου.

Βελτίωση μέσω Fine-Tuning από 8K σε 32K

Η προεκπαιδευτική φάση του GPT-4 χρησιμοποίησε ένα μήκος περιβάλλοντος 8k. Στη συνέχεια, το μοντέλο υποβλήθηκε σε τελειοποίηση, με αποτέλεσμα την έκδοση 32k. Αυτή η εξέλιξη βασίζεται στη φάση της προεκπαίδευσης, ενισχύοντας τις δυνατότητες του μοντέλου και προσαρμόζοντάς το σε συγκεκριμένες εργασίες.

Κλιμάκωση με GPU μέσω Parallelism

OpenAI αξιοποίησε τη δύναμη του παραλληλισμού σε GPT-4 για να αξιοποιήσουν πλήρως τις δυνατότητες των GPU A100. Χρησιμοποίησαν παραλληλισμό τανυστών 8 κατευθύνσεων, ο οποίος μεγιστοποιεί την παράλληλη επεξεργασία, καθώς είναι το όριο για το NVLink. Επιπλέον, ο παραλληλισμός αγωγών 15 κατευθύνσεων χρησιμοποιήθηκε για περαιτέρω βελτίωση της απόδοσης. Ενώ πιθανότατα χρησιμοποιήθηκαν συγκεκριμένες τεχνικές όπως το ZeRo Stage 1, η ακριβής μεθοδολογία παραμένει άγνωστη.

Προκλήσεις κόστους εκπαίδευσης και αξιοποίησης

Εκπαίδευση GPT-4 ήταν μια εκτεταμένη και έντασης πόρων. OpenAI διέθεσε περίπου 25,000 GPU A100 σε μια περίοδο 90 έως 100 ημερών, που λειτουργούν με ποσοστό χρησιμοποίησης περίπου 32% έως 36% MFU (που χρησιμοποιείται πιο συχνά). Η εκπαιδευτική διαδικασία παρουσίασε πολλές αποτυχίες, που απαιτούσαν συχνές επανεκκινήσεις από σημεία ελέγχου. Εάν εκτιμάται σε 1 $ ανά ώρα A100, το κόστος εκπαίδευσης μόνο για αυτήν την εκτέλεση θα ανέλθει σε περίπου 63 εκατομμύρια δολάρια.

Ανταλλαγές σε Μείγμα Εμπειρογνωμόνων

Η εφαρμογή ενός μοντέλου μείγματος εμπειρογνωμόνων παρουσιάζει αρκετές ανταλλαγές. Σε περίπτωση που GPT-4, OpenAI επέλεξε 16 ειδικούς αντί για μεγαλύτερο αριθμό. Αυτή η απόφαση αντανακλά μια ισορροπία μεταξύ της επίτευξης ανώτερων αποτελεσμάτων ζημιών και της διασφάλισης της γενίκευσης σε διάφορες εργασίες. Περισσότεροι ειδικοί μπορούν να παρουσιάσουν προκλήσεις όσον αφορά τη γενίκευση και τη σύγκλιση εργασιών. OpenAIεπιλογή του για άσκηση προσοχή στον ειδικό Η επιλογή ευθυγραμμίζεται με τη δέσμευσή τους για αξιόπιστη και ισχυρή απόδοση.

Κόστος συμπερασμάτων

Σε σύγκριση με τον προκάτοχό του, το μοντέλο Davinci των 175 δισεκατομμυρίων παραμέτρων, GPT-4Το κόστος συμπερασμάτων του είναι περίπου τρεις φορές υψηλότερο. Αυτή η απόκλιση μπορεί να αποδοθεί σε διάφορους παράγοντες, συμπεριλαμβανομένων των μεγαλύτερων συστάδων που απαιτούνται για υποστήριξη GPT-4 και τη χαμηλότερη χρησιμοποίηση που επιτυγχάνεται κατά την εξαγωγή συμπερασμάτων. Οι εκτιμήσεις υποδεικνύουν ένα κατά προσέγγιση κόστος 0.0049 σεντς $ ανά 1,000 μάρκες για 128 GPU A100 και 0.0021 σεντ $ ανά 1,000 μάρκες για 128 GPU H100 κατά το συμπέρασμα GPT-4 με 8κ. Αυτά τα στοιχεία προϋποθέτουν αξιοπρεπή χρήση και υψηλά μεγέθη παρτίδων, κρίσιμα στοιχεία για τη βελτιστοποίηση του κόστους.

Προσοχή πολλαπλών ερωτημάτων

OpenAI αξιοποιεί την προσοχή πολλαπλών ερωτημάτων (MQA), μια τεχνική που χρησιμοποιείται ευρέως στο πεδίο GPT-4 επισης. Με την εφαρμογή του MQA, το μοντέλο απαιτεί μόνο μία κεφαλή, μειώνοντας σημαντικά τη χωρητικότητα μνήμης που είναι απαραίτητη για τη μνήμη cache κλειδιού-τιμής (κρυφή μνήμη KV). Παρά αυτή τη βελτιστοποίηση, πρέπει να σημειωθεί ότι η παρτίδα 32k GPT-4 δεν μπορεί να τοποθετηθεί σε GPU 40 GB A100 και τα 8k περιορίζονται από το μέγιστο μέγεθος παρτίδας.

Συνεχής παρτίδα

Για να επιτευχθεί μια ισορροπία μεταξύ του λανθάνοντος χρόνου και του κόστους συμπερασμάτων, OpenAI ενσωματώνει τόσο μεταβλητά μεγέθη παρτίδων όσο και συνεχή παρτίδα GPT-4. Αυτή η προσαρμοστική προσέγγιση επιτρέπει ευέλικτη και αποτελεσματική επεξεργασία, βελτιστοποιώντας τη χρήση των πόρων και μειώνοντας τα υπολογιστικά έξοδα.

Vision Multi-Modal

GPT-4 εισάγει έναν ξεχωριστό κωδικοποιητή όρασης μαζί με τον κωδικοποιητή κειμένου, με διασταυρούμενη προσοχή μεταξύ των δύο. Αυτή η αρχιτεκτονική, που θυμίζει Flamingo, προσθέτει πρόσθετες παραμέτρους στον ήδη εντυπωσιακό αριθμό παραμέτρων των 1.8 τρισεκατομμυρίων GPT-4. Το μοντέλο όρασης υφίσταται ξεχωριστή λεπτομέρεια χρησιμοποιώντας περίπου 2 τρισεκατομμύρια μάρκες μετά τη φάση προ-προπόνησης μόνο κειμένου. Αυτή η ικανότητα όρασης εξουσιοδοτεί αυτόνομους πράκτορες για ανάγνωση ιστοσελίδων, μεταγραφή εικόνων και ερμηνεία περιεχομένου βίντεο—ένα ανεκτίμητο πλεονέκτημα στην εποχή των δεδομένων πολυμέσων.

κερδοσκοπική αποκωδικοποίηση

Μια ενδιαφέρουσα πτυχή του GPT-4Η στρατηγική συμπερασμάτων του είναι η πιθανή χρήση κερδοσκοπικής αποκωδικοποίησης. Αυτή η προσέγγιση περιλαμβάνει τη χρήση μικρότερου, ταχύτερου μοντέλο για να δημιουργήσετε προβλέψεις για πολλαπλά διακριτικά εκ των προτέρων. Αυτά τα προβλεπόμενα διακριτικά στη συνέχεια τροφοδοτούνται σε ένα μεγαλύτερο μοντέλο «μαντείου» ως μία μόνο παρτίδα. Αν το μικρότερο προβλέψεις του μοντέλου ευθυγραμμίζονται με τη συμφωνία του μεγαλύτερου μοντέλου, πολλά διακριτικά μπορούν να αποκωδικοποιηθούν μαζί. Ωστόσο, εάν το μεγαλύτερο μοντέλο απορρίψει τα διακριτικά που προβλέπονται από το πρόχειρο μοντέλο, η υπόλοιπη παρτίδα απορρίπτεται και το συμπέρασμα συνεχίζεται αποκλειστικά με το μεγαλύτερο μοντέλο. Αυτή η προσέγγιση επιτρέπει την αποτελεσματική αποκωδικοποίηση ενώ δυνητικά δέχεται ακολουθίες χαμηλότερης πιθανότητας. Αξίζει να σημειωθεί ότι αυτή η εικασία παραμένει ανεπιβεβαίωτη αυτή τη στιγμή.

Αρχιτεκτονική συμπερασμάτων

GPT-4Η διαδικασία συμπερασμάτων του λειτουργεί σε ένα σύμπλεγμα 128 GPU, κατανεμημένων σε πολλά κέντρα δεδομένων σε διαφορετικές τοποθεσίες. Αυτή η υποδομή χρησιμοποιεί παραλληλισμό τανυστών 8 κατευθύνσεων και παραλληλισμό αγωγών 16 κατευθύνσεων για μεγιστοποίηση της υπολογιστικής απόδοσης. Κάθε κόμβος, που περιλαμβάνει 8 GPU, δέχεται περίπου 130 δισεκατομμύρια παραμέτρους. Με μέγεθος μοντέλου 120 στρώσεων, GPT-4 μπορεί να χωρέσει σε 15 διαφορετικούς κόμβους, πιθανώς με λιγότερα επίπεδα στον πρώτο κόμβο λόγω της ανάγκης υπολογισμού των ενσωματώσεων. Αυτές οι αρχιτεκτονικές επιλογές διευκολύνουν την εξαγωγή συμπερασμάτων υψηλής απόδοσης, αποδεικνύοντας OpenAIτη δέσμευσή του να ξεπεράσει τα όρια της υπολογιστικής απόδοσης.

Μέγεθος και σύνθεση συνόλου δεδομένων

GPT-4 εκπαιδεύτηκε σε εντυπωσιακά 13 τρισεκατομμύρια μάρκες, παρέχοντάς του ένα εκτενές σώμα κειμένου για να μάθει. Ωστόσο, δεν μπορούν να ληφθούν υπόψη όλα τα διακριτικά από τα γνωστά σύνολα δεδομένων που χρησιμοποιούνται κατά τη διάρκεια της εκπαίδευσης. Ενώ σύνολα δεδομένων όπως το CommonCrawl και το RefinedWeb συνεισφέρουν ένα σημαντικό μέρος του δεδομένα κατάρτισης, παραμένει ένα μέρος των κουπονιών που δεν έχουν καταγραφεί, που συχνά αναφέρονται ως «μυστικά» δεδομένα.

Φήμες και εικασίες

Έχουν προκύψει εικασίες σχετικά με την προέλευση αυτών των άγνωστων δεδομένων. Μια φήμη υποδηλώνει ότι περιλαμβάνει περιεχόμενο από δημοφιλείς πλατφόρμες όπως το Twitter, το Reddit και το YouTube, υπογραμμίζοντας την πιθανή επιρροή του περιεχομένου που δημιουργείται από τους χρήστες στη διαμόρφωση GPT-4βάση γνώσεων του. Επιπλέον, υπάρχουν εικασίες γύρω από τη συμπερίληψη εκτεταμένων συλλογών όπως το LibGen, ένα αποθετήριο εκατομμυρίων βιβλίων και το Sci-Hub, μια πλατφόρμα που παρέχει πρόσβαση σε πολυάριθμες επιστημονικές εργασίες. Η αντίληψη ότι GPT-4 εκπαιδεύτηκε στο σύνολο του GitHub έχει επίσης κυκλοφορήσει μεταξύ των λάτρεις της τεχνητής νοημοσύνης.

Η γνώμη του δημοσιογράφου

Αν και υπάρχουν πολλές φήμες, είναι σημαντικό να προσεγγίζουμε αυτές τις φήμες με προσοχή. Η εκπαίδευση του GPT-4 μπορεί να έχουν ωφεληθεί πολύ από ένα ειδικό σύνολο δεδομένων που αποτελείται από σχολικά βιβλία κολεγίου. Αυτό το σύνολο δεδομένων, το οποίο καλύπτει ένα ευρύ φάσμα μαθημάτων και θεμάτων, θα μπορούσε να είχε συναρμολογηθεί με κόπο στο χέρι. Τα σχολικά εγχειρίδια παρέχουν μια δομημένη και ολοκληρωμένη βάση γνώσεων που μπορεί να χρησιμοποιηθεί με επιτυχία για την εκπαίδευση ενός γλωσσικού μοντέλου και είναι εύκολα μετατρέψιμα σε αρχεία κειμένου. Η συμπερίληψη ενός τέτοιου συνόλου δεδομένων μπορεί να δώσει την εντύπωση ότι GPT-4 έχει γνώσεις σε διάφορους τομείς.

Η γοητεία με GPT-4Γνώση του

Μια ενδιαφέρουσα πτυχή του GPT-4Η εκπαίδευση του είναι η ικανότητά του να παρουσιάζει εξοικείωση με συγκεκριμένα βιβλία και ακόμη και να ανακαλεί μοναδικά αναγνωριστικά από πλατφόρμες όπως το Project Euler. Οι ερευνητές προσπάθησαν να εξαγάγουν απομνημονευμένα τμήματα βιβλίων από GPT-4 να αποκτήσει γνώσεις σχετικά με την εκπαίδευσή του, τροφοδοτώντας περαιτέρω την περιέργεια για την εσωτερική λειτουργία του μοντέλου. Αυτές οι ανακαλύψεις υπογραμμίζουν την εκπληκτική ικανότητα του GPT-4 να διατηρήσει πληροφορίες και να υπογραμμίσει τις εντυπωσιακές δυνατότητες των γλωσσικών μοντέλων μεγάλης κλίμακας.

Η ευελιξία του GPT-4

Το ευρύ φάσμα θεμάτων και πεδίων που GPT-4 μπορεί φαινομενικά να ασχοληθεί με βιτρίνες την ευελιξία του. Είτε απαντάτε σε σύνθετες ερωτήσεις στην επιστήμη των υπολογιστών είτε εμβαθύνετε σε φιλοσοφικές συζητήσεις, GPT-4Η εκπαίδευση του σε ένα διαφορετικό σύνολο δεδομένων το εξοπλίζει ώστε να αλληλεπιδρά με χρήστες από διάφορους τομείς. Αυτή η ευελιξία πηγάζει από την έκθεσή του σε μια τεράστια γκάμα πόρων κειμένου, καθιστώντας το πολύτιμο εργαλείο για ένα ευρύ φάσμα χρηστών.

Διαβάστε περισσότερα για το AI:

Αποποίηση ευθυνών

Σύμφωνα με το Οδηγίες του έργου Trust, σημειώστε ότι οι πληροφορίες που παρέχονται σε αυτήν τη σελίδα δεν προορίζονται και δεν πρέπει να ερμηνεύονται ως νομικές, φορολογικές, επενδυτικές, χρηματοοικονομικές ή οποιαδήποτε άλλη μορφή συμβουλής. Είναι σημαντικό να επενδύσετε μόνο ό,τι έχετε την πολυτέλεια να χάσετε και να αναζητήσετε ανεξάρτητες οικονομικές συμβουλές εάν έχετε οποιεσδήποτε αμφιβολίες. Για περισσότερες πληροφορίες, προτείνουμε να ανατρέξετε στους όρους και τις προϋποθέσεις, καθώς και στις σελίδες βοήθειας και υποστήριξης που παρέχονται από τον εκδότη ή τον διαφημιστή. MetaversePost δεσμεύεται για ακριβείς, αμερόληπτες αναφορές, αλλά οι συνθήκες της αγοράς υπόκεινται σε αλλαγές χωρίς προειδοποίηση.

Σχετικά με το Συγγραφέας

Ο Damir είναι ο αρχηγός της ομάδας, ο διευθυντής προϊόντων και ο συντάκτης στο Metaverse Post, καλύπτοντας θέματα όπως AI/ML, AGI, LLMs, Metaverse και Web3-σχετικά πεδία. Τα άρθρα του προσελκύουν ένα τεράστιο κοινό άνω του ενός εκατομμυρίου χρηστών κάθε μήνα. Φαίνεται να είναι ειδικός με 10ετή εμπειρία στο SEO και το ψηφιακό μάρκετινγκ. Ο Damir έχει αναφερθεί στο Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto και άλλες εκδόσεις. Ταξιδεύει μεταξύ των ΗΑΕ, της Τουρκίας, της Ρωσίας και της ΚΑΚ ως ψηφιακός νομάδας. Ο Damir απέκτησε πτυχίο στη φυσική, το οποίο πιστεύει ότι του έχει δώσει τις δεξιότητες κριτικής σκέψης που απαιτούνται για να είναι επιτυχής στο συνεχώς μεταβαλλόμενο τοπίο του Διαδικτύου. 

Περισσότερα άρθρα
Νταμίρ Γιαλάλοφ
Νταμίρ Γιαλάλοφ

Ο Damir είναι ο αρχηγός της ομάδας, ο διευθυντής προϊόντων και ο συντάκτης στο Metaverse Post, καλύπτοντας θέματα όπως AI/ML, AGI, LLMs, Metaverse και Web3-σχετικά πεδία. Τα άρθρα του προσελκύουν ένα τεράστιο κοινό άνω του ενός εκατομμυρίου χρηστών κάθε μήνα. Φαίνεται να είναι ειδικός με 10ετή εμπειρία στο SEO και το ψηφιακό μάρκετινγκ. Ο Damir έχει αναφερθεί στο Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto και άλλες εκδόσεις. Ταξιδεύει μεταξύ των ΗΑΕ, της Τουρκίας, της Ρωσίας και της ΚΑΚ ως ψηφιακός νομάδας. Ο Damir απέκτησε πτυχίο στη φυσική, το οποίο πιστεύει ότι του έχει δώσει τις δεξιότητες κριτικής σκέψης που απαιτούνται για να είναι επιτυχής στο συνεχώς μεταβαλλόμενο τοπίο του Διαδικτύου. 

Hot Stories
Εγγραφείτε στο ενημερωτικό μας δελτίο.
Τελευταια νεα

Η θεσμική όρεξη αυξάνεται προς τα ETF του Bitcoin εν μέσω αστάθειας

Οι αποκαλύψεις μέσω των καταθέσεων 13F αποκαλύπτουν αξιόλογους θεσμικούς επενδυτές που ασχολούνται με τα Bitcoin ETF, υπογραμμίζοντας την αυξανόμενη αποδοχή του ...

Μάθετε περισσότερα

Έφτασε η ημέρα της ποινής: Η μοίρα της CZ βρίσκεται σε ισορροπία καθώς το δικαστήριο των ΗΠΑ εξετάζει την ένσταση του DOJ

Ο Changpeng Zhao είναι έτοιμος να αντιμετωπίσει την καταδίκη σε αμερικανικό δικαστήριο στο Σιάτλ σήμερα.

Μάθετε περισσότερα
Γίνετε μέλος της Καινοτόμου Τεχνολογικής Κοινότητας μας
Διαβάστε Περισσότερα
Διάβασε περισσότερα
Η στροφή του Ντόναλντ Τραμπ στην κρυπτογράφηση: Από αντίπαλος σε συνήγορος και τι σημαίνει για την αγορά κρυπτονομισμάτων των ΗΠΑ
Business αγορές Ιστορίες και κριτικές Τεχνολογία
Η στροφή του Ντόναλντ Τραμπ στην κρυπτογράφηση: Από αντίπαλος σε συνήγορος και τι σημαίνει για την αγορά κρυπτονομισμάτων των ΗΠΑ
10 Μαΐου 2024
Layer3 για κυκλοφορία L3 Token αυτό το καλοκαίρι, κατανέμοντας το 51% της συνολικής προσφοράς στην κοινότητα
αγορές Αναφορά ειδήσεων Τεχνολογία
Layer3 για κυκλοφορία L3 Token αυτό το καλοκαίρι, κατανέμοντας το 51% της συνολικής προσφοράς στην κοινότητα
10 Μαΐου 2024
Η τελική προειδοποίηση του Έντουαρντ Σνόουντεν προς τους προγραμματιστές Bitcoin: «Κάντε το απόρρητο προτεραιότητα σε επίπεδο πρωτοκόλλου ή κινδυνεύετε να το χάσετε
αγορές Ασφάλεια Wiki λογισμικό Ιστορίες και κριτικές Τεχνολογία
Η τελική προειδοποίηση του Έντουαρντ Σνόουντεν προς τους προγραμματιστές Bitcoin: «Κάντε το απόρρητο προτεραιότητα σε επίπεδο πρωτοκόλλου ή κινδυνεύετε να το χάσετε
10 Μαΐου 2024
Το Optimism-Powered Ethereum Layer 2 Network Mint θα κυκλοφορήσει το Mainnet του στις 15 Μαΐου
Αναφορά ειδήσεων Τεχνολογία
Το Optimism-Powered Ethereum Layer 2 Network Mint θα κυκλοφορήσει το Mainnet του στις 15 Μαΐου
10 Μαΐου 2024
CRYPTOMERIA LABS PTE. Ε.Π.Ε.