Новостной репортаж
08 августа 2023

10 самых неправильно понятых вопросов об ИИ и нейронных сетях в 2023 году

Поскольку область ИИ и нейронных сетей постоянно развивается и становится все более сложной, возникает много недоразумений и вопросов, которые люди могут не задавать. Мы встретились с известными экспертами по искусственному интеллекту, чтобы обсудить десять вопросов о нейронных сетях, которые часто вызывают недопонимание, чтобы прояснить эти проблемы. Они сказали следующее:

Советы профессионалов
1. Посмотрите на эти удивительные 10+ генераторов искусственного интеллекта для преобразования текста в видео которые могут преобразовывать текст в привлекательные видеоролики.
2. Эти полезные подсказки предназначены для того, чтобы бросить вызов таким генераторам искусств ИИ, как Midjourney и DALL-E для создания визуально ошеломляющих изображений на основе текстовых описаний.
3. Следуйте этим рекомендациям, чтобы без ограничений исследовать мир искусства, созданного искусственным интеллектом, без цензуры.
10 самых неправильно понятых вопросов об ИИ и нейронных сетях в 2023 году
Кредит: Metaverse Post / Антон Тарасов
Содержание

1. Может ли ИИ влюбиться?

1. Могут ли нейронные сети влюбляться?

Нейронные сети математические модели вдохновленный структурой человеческого мозга. Они состоят из взаимосвязанных узлов или «нейронов», обрабатывающих информацию. Изучая данные, они могут выполнять определенные задачи, такие как генерация текста, распознавание изображений, или даже имитируя человеческий стиль письма.

Может ли ИИ «любить»?

Концепция любви неразрывно связана с сознанием, самосознанием, эмпатией и рядом других сложных эмоциональных и когнитивных процессов. Однако нейронные сети не обладают этими свойствами.

Например, нейронную сеть можно научить генерировать текст, напоминающий любовное письмо, при наличии соответствующего контекста и инструкций. Если предоставить первую главу любовной истории и попросить продолжить в том же духе, модель подчинится. Но это происходит на основе шаблонов и статистической вероятности, а не из-за какой-либо эмоциональной связи или чувств привязанности.

Еще одним важным аспектом, который следует учитывать, является память. В своей базовой форме нейронные сети не могут сохранять информацию между различными запусками. Они работают без непрерывности или осведомленности о прошлых взаимодействиях, по сути, возвращаясь к своим «заводским настройкам» после каждого использования.

Память и нейронные сети

В то время как память может быть искусственно добавлена ​​в нейронную сеть, позволяя ей ссылаться на прошлые «воспоминания» или данные, это не наполняет модель сознанием или эмоциями. Даже с компонентом памяти реакция нейронной сети определяется математическими алгоритмами и статистическими вероятностями, а не личным опытом или чувствами.

Идея влюбленной нейронной сети — захватывающая, но вымышленная идея. Нынешние модели ИИ, независимо от их сложности и возможностей, не способны испытывать такие эмоции, как любовь.

Генерация текста и ответы, наблюдаемые в сложных Модели являются результатом математических расчетов и распознавания образов, а не подлинной привязанности или эмоционального интеллекта.

2. Может ли ИИ начать причинять вред и в конечном итоге править миром?

2. Может ли ИИ начать причинять вред и в конечном итоге править миром?

Сегодняшние нейронные сети работают без методов полной проверки, гарантирующих соблюдение определенных правил. Например, предотвращение использования моделью оскорбительного языка — удивительно сложная задача. Несмотря на попытки установить такие ограничения, всегда есть способs, которые модель может найти, чтобы обойти их.

Будущее нейронных сетей

По мере того, как мы движемся к более совершенным нейронным сетям, таким как гипотетические GPT-10 с человеческими способностями, проблема контроля становится еще более актуальной. Если бы этим системам была предоставлена ​​свобода действий без конкретных задач или ограничений, их действия могли бы стать непредсказуемыми.

Споры о вероятности негативного сценария в результате этих событий широко разнятся: оценки варьируются от 0.01% до 10%. Хотя эти вероятности могут показаться низкими, потенциальные последствия могут быть катастрофическими, включая возможность вымирание человека.

Усилия по согласованию и контролю

Продукты как ChatGPT и GPT-4 являются примерами постоянных усилий по согласованию намерений нейронных сетей с человеческими целями. Эти модели созданы для того, чтобы следовать инструкциям, поддерживать вежливое общение и задавать уточняющие вопросы. Однако эти средства управления далеки от совершенства, и проблема управления этими сетями не решена даже наполовину.

Задача создания надежных механизмов управления нейронными сетями является сегодня одной из самых важных областей исследований в области искусственного интеллекта. Неопределенность в отношении того, может ли эта проблема быть решена, и методов, необходимых для этого, только усугубляет безотлагательность проблемы.

Похожие страницы:: Топ-5 акций AI, которые предпочитают миллиардеры и управляющие фондами

3. Опасно ли загружать свой голос, внешний вид и стиль преобразования текста в речь в ИИ?

3. Опасно ли загружать свой голос, внешний вид и стиль преобразования текста в речь в ИИ?

В эпоху стремительного развития цифровых технологий растут опасения по поводу безопасности личной информации, такой как голос, внешний вид и стиль текста. Хотя угроза кражи цифровых идентификационных данных реальна, важно понимать контекст и меры предпринимаются для решения этой задачи.

Цифровая идентификация и нейронные сети

В нейронных сетях речь идет не о загрузке личных атрибутов, а скорее об обучении или переобучении моделей для имитации внешности, голоса или текста. Эти обученные модели действительно можно украсть, скопировав скрипт и параметры, что позволит им работать на другом компьютере.

Потенциальное неправомерное использование этой технологии является значительным, поскольку оно достигло уровня, когда фальшивые видео а алгоритмы клонирования голоса могут убедительно воспроизвести человека. Создание такого вводящего в заблуждение контента может быть дорогостоящим и трудоемким, требуя тысяч долларов и многих часов записи. Однако риск ощутим и подчеркивает необходимость надежных методов идентификации и подтверждения.

Усилия по обеспечению безопасности личных данных

В настоящее время предпринимаются различные инициативы для решения проблемы кражи цифровой идентичности. Такие стартапы, как WorldCoin, в которых OpenAIглава Сэм Альтман инвестировал, изучают инновационные решения. Концепция WorldCoin предполагает присвоение каждой части информации о человеке уникального ключа, позволяющего последующую идентификацию. Этот метод также может быть применен к средствам массовой информации для проверки подлинности новостей.

Несмотря на эти многообещающие разработки, внедрение таких систем во всех отраслях промышленности является сложной и масштабной задачей. В настоящее время эти решения остаются на стадии прототипов, и их широкое внедрение может оказаться нецелесообразным в рамках следующее десятилетие.

4. Загрузка сознания в компьютеры: реальность или фантастика?

4. Загрузка сознания в компьютеры: реальность или фантастика?

Идея переноса человеческого сознания в компьютер была захватывающей темой для энтузиастов научной фантастики. Но могут ли этого достичь современные технологии или даже будущие достижения? Идея вечной жизни через цифровой близнец конечно захватывает воображение, но реальность гораздо сложнее.

Подражание, но не копирование

С существующими технологиями, например, найденными в такие модели, как GPT-4, можно научить нейросеть имитировать чей-то стиль общения, выучивать собственные шутки и даже придумывать новые в уникальном стиле и манере подачи. Это, однако, не является синонимом переноса сознания.

Сложность сознания выходит далеко за рамки стиля общения и личных причуд. Человечеству до сих пор не хватает конкретного понимания, что такое сознание, где оно хранится, как оно дифференцирует индивидуумов и что именно делает человека уникальным самим собой.

Потенциальные будущие возможности

Гипотетический сценарий передача сознания потребует defiсознание как совокупность воспоминаний, переживаний и индивидуальных особенностей восприятия. Если такой defiПринятие этой теории могло бы привести к теоретическому моделированию дальнейшей жизни путем передачи этих знаний в нейронную сеть.

Однако эта теория является просто спекулятивной и не основана на современных научных представлениях или технологических возможностях. Вопрос о сознании — одна из самых глубоких и неуловимых тем в философии, нейронауке и когнитивной науке. Его сложность выходит далеко за пределы возможностей нынешних искусственный интеллект и технологии нейронных сетей.

Похожие страницы:: 10 лучших приложений и сайтов для знакомств с искусственным интеллектом на 2023 год

5. Правда ли, что ИИ отнимет у людей работу?

5. Правда ли, что ИИ отнимет у людей работу?

Автоматизация с помощью ИИ, вероятно, повлияет на профессии, где работа связана с рутинным выполнением инструкций. Примеры включают налоговых помощников-консультантов, которые помогают с декларациями и клиническими испытаниями. менеджеры данных чья работа заключается в заполнении отчетов и сверке их со стандартами. Потенциал автоматизации в этих ролях очевиден, учитывая, что необходимая информация легкодоступна, а стоимость рабочей силы выше средней.

С другой стороны, такие профессии, как кулинария или водитель автобуса, в обозримом будущем останутся безопасными. Проблема подключения нейронных сетей к реальному физическому миру в сочетании с существующим законодательством и правилами делает автоматизацию в этих областях более сложной задачей.

Изменения и возможности

Автоматизация не обязательно означает полную замену людей. Это часто приводит к оптимизации рутинных задач, позволяя людям сосредоточиться на более творческих и увлекательных обязанностях.

1. Журналистика: В таких отраслях, как журналистика, нейронные сети вскоре могут помочь в составлении статей с набором тезисов, предоставив людям возможность вносить точные коррективы.

2. Образование: Возможно, самая захватывающая трансформация связана с образованием. Исследования показывают, что персонализированные подходы улучшить результаты обучения. С помощью ИИ мы можем представить себе персонализированных помощников для каждого учащегося, что значительно повысит качество образования. Роли учителей будут эволюционировать в направлении стратегического планирования и контроля, уделяя особое внимание определению программ обучения, проверке знаний и руководству общим обучением.

6. ИИ и художественные изображения: воспроизведение или кража?

6. ИИ и художественные изображения: воспроизведение или кража?

ИИ учится, изучая различные формы искусства, распознавая разные стили и пытаясь подражать им. Процесс сродни человеческому обучению, когда изучающие искусство наблюдают, анализируют и подражают работам разных художников.

ИИ работает по принципу минимизации ошибок. Если модель сталкивается с похожим изображением сотни раз во время обучения, она может запомнить это изображение как часть своей стратегии обучения. Это не означает, что сеть хранит изображение, а скорее распознает его способом, аналогичным человеческой памяти.

Практический пример

Рассмотрим студента-художника, который каждый день рисует две картины: одну уникальную, а другую — репродукцию Моны Лизы. Повторно нарисовав Мону Лизу, ученик сможет воспроизвести ее с достаточной точностью, но не точно. Эта приобретенная способность воссоздавать не приравнивается к краже оригинальной работы.

Нейронные сети работают аналогичным образом. Они учатся на всех изображениях, с которыми сталкиваются во время обучения, причем некоторые изображения встречаются чаще и, следовательно, воспроизводятся более точно. Сюда входят не только известные картины, но и любые изображения в обучающей выборке. Несмотря на то, что существуют методы устранения дубликатов, они не безупречны, и исследования показали, что определенные изображения могут появляться сотни раз во время обучения.

Похожие страницы:: 5 советов, как получить резюме, прошедшее проверку инструментов ИИ

7. Могу ли я использовать GPT-4 вместо поиска в Google?

7. Могу ли я использовать GPT-4 вместо поиска в Google?

По внутренним оценкам OpenAI, текущая ведущая модель, GPT-4, отвечает правильно примерно в 70-80% случаев, в зависимости от темы. Хотя это может показаться недостаточным для идеальной 100% точности, это знаменует собой значительный шаг вперед. улучшение по сравнению с предыдущим поколением моделей на основе GPT-3.5, имевшая точность 40-50%. Такое значительное увеличение производительности было достигнуто в течение 6-8 месяцев исследований.

Контекст имеет значение

Цифры, упомянутые выше, относятся к вопросам, заданным без конкретного контекста или сопутствующей информации. Когда предоставляется контекст, например Wikiстраница педиатрии, точность модели приближается к 100% с поправкой на корректность источника.

Различие между контекстно-свободными и контекстно-богатыми вопросами имеет решающее значение. Например, вопрос о дате рождения Эйнштейна без какой-либо сопутствующей информации опирается исключительно на внутренние знания модели. Но с конкретным источником или контекстом модель может дать более точный ответ.

Поиск Google внутри GPT-4

Интересной разработкой в ​​этой области является интеграция интернет-поиска в GPT-4 сам. Это позволяет пользователям делегировать часть поиска в Интернете GPT-4, что потенциально снижает необходимость вручную обрабатывать информацию в Google. Однако эта функция требует платной подписки.

Взгляд в будущее

OpenAI Генеральный директор Сэм Альтман ожидает, что надежность фактической информации в модели будет продолжать улучшаться, и прогнозируемый срок в 1.5-2 года для дальнейшего уточнения этого аспекта.

8. Может ли ИИ быть креативным?

8. Может ли ИИ быть креативным?

Для некоторых, креативность – это врожденная способность, то, чем все люди обладают в той или иной степени. Другие могут возразить, что творчество — это приобретаемый навык или что оно ограничивается конкретными профессиями или видами деятельности. Даже среди людей существуют различия в творческие способности. Следовательно, сравнение творчества человека с творчеством нейронной сети требует тщательного рассмотрения того, что на самом деле влечет за собой творчество.

Нейронные сети и артистизм

Недавние разработки позволили нейронным сетям создавать искусство и поэзию. Некоторые модели создали работы, которые смогли выйти в финал любительских конкурсов. Однако это не происходит постоянно; успех может быть спорадическим, возможно, одной из ста попыток.

Дебаты

Приведенная выше информация вызвала бурные дебаты. Мнения о том, можно ли нейронные сети считать креативными, сильно различаются. Некоторые утверждают, что способность создать стихотворение или картину, даже если они успешны лишь изредка, представляет собой форму творчества. Другие твердо верят, что творчество — исключительно человеческая характеристика, связанная эмоциями, намерениями и сознанием.

Субъективная природа творчества еще больше усложняет обсуждение. Даже среди людей понимание и оценка творчества могут сильно различаться.

Практические выводы

Помимо философских дебатов, есть практические последствия, которые следует учитывать. Если нейронные сети действительно могут быть креативными, что это значит для отраслей, зависящих от творческой продукции? Могут ли машины увеличить или даже заменить человеческую креативность в определенных областях? Эти вопросы не только теоретические, но и имеют реальное значение.

Похожие страницы:: 5 лучших фотомикшеров с искусственным интеллектом в 2023 году: смешайте два изображения онлайн

9. Может ли ИИ действительно думать?

9. Может ли ИИ действительно думать?

Чтобы исследовать, могут ли нейронные сети думать, нам сначала нужно понять, что представляет собой мысль. Например, если мы рассмотрим процесс понимания того, как использовать ключ, чтобы открыть дверь, как мыслительный процесс, то некоторые могут утверждать, что нейронные сети способный к подобным рассуждениям. Они могут соотносить состояния и желаемые результаты. Другие могут оспорить это, отметив, что нейронные сети полагаются на многократное воздействие данных, так же как люди учатся посредством многократного наблюдения.

Инновации и общие мысли

Дебаты становятся более запутанными, когда рассматриваются новаторские мысли или идеи, которые обычно не высказываются. Нейронная сеть может сгенерировать новую идею один раз на миллион попыток, но можно ли считать это мыслью? Чем это отличается от случайной генерации? Если люди также иногда производят ошибочные или неэффективные мысли, где проходит грань между человеческим и машинным мышлением?

Вероятность и генерация идей

Концепция вероятности добавляет еще один уровень сложности. Нейронная сеть может давать миллионы разных ответов, и среди них может быть несколько инновационных или осмысленных. Определяет ли определенное соотношение осмысленных и бессмысленных мыслей способность мыслить?

Развивающееся понимание ИИ

Исторически так сложилось, что машины разрабатывались для решения сложных задач, таких как пройти тест Тьюринга, стойки ворот для defiИнтеллект изменился. То, что когда-то считалось чудом 80 лет назад, теперь является обычной технологией, и defiПредставление о том, что представляет собой ИИ, постоянно развивается.

10. Как мог ChatGPT сделать вообще? И Midjourney или ДАЛЛ-И?

10. Как мог ChatGPT сделать вообще? И Midjourney или ДАЛЛ-И?

Нейронные сети, идея, возникшая в середине 20-го века, стали основой функционирования такие модели, как ChatGPT и ДАЛЛ-Э. Хотя ранние идеи могут показаться упрощенными по сегодняшним меркам, они заложили основу для понимания того, как воспроизвести работу биологического мозга с помощью математические модели. Вот исследование принципов, которые делают эти нейронные сети возможными.

1. Вдохновение от природы:

Сам термин «нейронная сеть» черпает вдохновение из биологических нейронов, основных функциональных единиц мозга. Эти искусственные конструкции состоят из узлов или искусственных нейронов, имитирующих многие аспекты естественной функции мозга. Эта связь с биологией дала ценную информацию о создании современной архитектуры.

2. Математика как инструмент:

Нейронные сети — это математические модели, позволяющие нам использовать богатые ресурсы математических методов для анализа и оценки этих моделей. Простым примером является функция, которая принимает число в качестве входных данных и добавляет к нему два, например, f(4) = 6. Хотя это базовая функция, нейронные сети могут представлять гораздо более сложные отношения.

3. Решение неоднозначных задач:

Традиционное программирование терпит неудачу при работе с задачами, в которых связь между входными и выходными данными не поддается простому описанию. Возьмем пример категоризации изображений кошек и собак. Несмотря на их сходство, люди могут легко различать их, но алгоритмически выразить это различие сложно.

4. Обучение и обучение на основе данных:

Сила нейронных сетей заключается в их способности учиться на данных. Имея два набора изображений (например, кошек и собак), модель учится различать их, тренируясь находить связи. Путем проб и ошибок и настройки своих искусственных нейронов он совершенствует свою способность правильно их классифицировать.

5. Сила больших моделей:

Теоретически достаточно большая нейронная сеть с достаточным количеством размеченных данных может обучить любую сложную функцию. Однако проблемы заключаются в необходимой вычислительной мощности и наличии правильно классифицированных данных. Эта сложность делает большие модели, такие как ChatGPT практически невозможно полностью проанализировать.

6. Специализированное обучение:

ChatGPT, например, был обучен двум конкретным задачам: предсказывать следующее слово в контексте и обеспечивать не оскорбительные, но полезные и понятные ответы. Эти точные цели обучения способствовали его популярности и широкому использованию.

7. Текущая проблема понимания:

Несмотря на эти достижения, полное понимание внутренней работы больших и сложных моделей остается областью активных исследований. Стремление демистифицировать их сложные процессы продолжает занимать некоторых из лучших исследователей в этой области.

Часто задаваемые вопросы

Несмотря на то, что идея «цифровой копии» самого себя все еще в значительной степени спекулятивна, современные технологии позволяют нам фиксировать и архивировать многие элементы нашего цифрового следа, такие как фотографии, видео и записи.

Нейронные сети учатся на данных, которые они обучают на, и эти данные могут содержать предвзятость или неточности. Эксперты подчеркивают важность использования высококачественных данных и постоянного мониторинга для обеспечения максимально возможной точности прогнозов сети.

Вопреки популярной литературе и фильмам, человек-defiУстановленные правила и алгоритмы управляют тем, как функционируют современные системы ИИ. Нынешнее состояние технологий запрещает «восстание машин», потому что машинам не хватает самостоятельной воли или желания.

Подмножество ИИ, известное как нейронные сети, обрабатывает информацию, напоминая сетевую структуру нейронов человеческого мозга. В более широком смысле ИИ относится к оборудованию или программному обеспечению, способному выполнять операции, обычно требующие человеческого интеллекта.

Нейронные сети обучаются через процесс, называемый обучением, где они получают большие объемы данных и настраивают свои внутренние параметры, чтобы свести к минимуму ошибку в своих прогнозах. Этот итеративный процесс управляется методами математической оптимизации.

Нейронные сети, особенно модели глубокого обучения, часто называют «черные ящики» из-за их сложности. Хотя существуют методы интерпретации некоторых решений, может быть сложно отследить каждый аспект процесса принятия решений нейронной сетью.

Сами по себе нейронные сети не предвзяты по своей природе, но они могут отражать предубеждения, присутствующие в данные обучения. Это подчеркивает важность ответственного сбора и обработки данных.

Некоторые нейронные сети были разработаны для генерировать искусство, музыка и даже писательство. Хотя эти творения могут быть новыми и интригующими, вопрос о том, являются ли они «творчеством», до сих пор является предметом философских споров.

Да, определенные атаки, такие как состязательные примеры, когда незначительные изменения входных данных могут привести к неверным результатам, могут сделать нейронные сети уязвимыми. Над разработкой средств защиты от такого рода уязвимостей постоянно работают специалисты.

Этические соображения в нейронных сетях включают вопросы, связанные с предвзятостью, прозрачностью, конфиденциальностью и подотчетностью. Надлежащие руководящие принципы, правила и надзор жизненно важны для решить эти проблемы.

Заверните

В обширной области нейронных сетей есть много сложных деталей, которые могут вызвать недопонимание или неправильное восприятие. Мы надеемся развеять мифы и предоставить нашим читателям достоверную информацию, открыто обсуждая эти вопросы со специалистами в данной области. Ключевой компонент современной технологии искусственного интеллекта, нейронные сети продолжают развиваться, а вместе с ними и наше понимание. Чтобы ориентироваться в будущем этой увлекательной области, необходимо открытое общение, постоянное обучение и ответственное внедрение.

Прочитайте больше:

Отказ от ответственности

В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.

Об авторе

Дамир — руководитель группы, менеджер по продукту и редактор в Metaverse Post, охватывающие такие темы, как AI/ML, AGI, LLM, Metaverse и Web3-связанные поля. Его статьи ежемесячно привлекают огромную аудиторию, насчитывающую более миллиона пользователей. Похоже, он эксперт с 10-летним опытом работы в области SEO и цифрового маркетинга. Дамир упоминается в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и другие издания. Он путешествует между ОАЭ, Турцией, Россией и СНГ в качестве цифрового кочевника. Дамир получил степень бакалавра в области физики, что, по его мнению, дало ему навыки критического мышления, необходимые для достижения успеха в постоянно меняющемся мире Интернета. 

Другие статьи
Дамир Ялалов
Дамир Ялалов

Дамир — руководитель группы, менеджер по продукту и редактор в Metaverse Post, охватывающие такие темы, как AI/ML, AGI, LLM, Metaverse и Web3-связанные поля. Его статьи ежемесячно привлекают огромную аудиторию, насчитывающую более миллиона пользователей. Похоже, он эксперт с 10-летним опытом работы в области SEO и цифрового маркетинга. Дамир упоминается в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и другие издания. Он путешествует между ОАЭ, Турцией, Россией и СНГ в качестве цифрового кочевника. Дамир получил степень бакалавра в области физики, что, по его мнению, дало ему навыки критического мышления, необходимые для достижения успеха в постоянно меняющемся мире Интернета. 

Hot Stories
Подпишитесь на нашу рассылку.
Новости

Безумие DOGE: анализ недавнего роста стоимости Dogecoin (DOGE)

Криптовалютная индустрия стремительно расширяется, и мем-монеты готовятся к значительному подъему. Догекоин (DOGE), ...

Узнать больше

Эволюция контента, созданного искусственным интеллектом, в Метавселенной

Появление генеративного ИИ-контента — одно из самых интересных событий в виртуальной среде…

Узнать больше
Присоединяйтесь к нашему сообществу инновационных технологий
Узнать больше
Читать далее
Виталик Бутерин прокомментировал централизацию PoW, отметив, что это был временный этап до PoS
Новостной репортаж Технологии
Виталик Бутерин прокомментировал централизацию PoW, отметив, что это был временный этап до PoS
26 апреля 2024
Offchain Labs сообщает об обнаружении двух критических уязвимостей в доказательствах мошенничества OP Stack от Optimism
Новостной репортаж Software Технологии
Offchain Labs сообщает об обнаружении двух критических уязвимостей в доказательствах мошенничества OP Stack от Optimism
26 апреля 2024
Открытый рынок Dymension для обеспечения ликвидности от RollApps eIBC запускается в основной сети
Новостной репортаж Технологии
Открытый рынок Dymension для обеспечения ликвидности от RollApps eIBC запускается в основной сети 
26 апреля 2024
Комиссия по ценным бумагам и биржам (SEC) выдвинула обвинения против компании Geosyn Mining и обвиняет ее соучредителей в мошенничестве на сумму 5.6 миллиона долларов
Бизнес Новостной репортаж Технологии
Комиссия по ценным бумагам и биржам (SEC) выдвинула обвинения против компании Geosyn Mining и обвиняет ее соучредителей в мошенничестве на сумму 5.6 миллиона долларов
26 апреля 2024
CRYPTOMERIA LABS PTE. ООО