MAX
Подпишись
стань автором. присоединяйся к сообществу!
Есть метка на карте 07 ноября 61
102

В России создана оригинальная процессорная архитектура, способная потеснить NVidia

скопировано с сайта cnews.ru

Входящая в группу «Хайтэк» российская компания IVA Technologies завершила разработку новой полностью оригинальной микропроцессорной архитектуры, и она продемонстрировала впечатляющие результаты на международных тестах. Появление чипов на ее основе ожидается в начале 2021 г.

Превосходство российской архитектуры

Как выяснил CNews, в России в I квартале 2021 г. будут выпущены первые образцы отечественных чипов, реализованных на новейшей процессорной архитектуре IVA TPU. Она была разработана российской компанией IVA Technologies, которая входит в группу «Хайтэк».

[читать статью полностью...]

Кстати, а вы знали, что на «Сделано у нас» статьи публикуют посетители, такие же как и вы? И никакой премодерации, согласований и разрешений! Любой может добавить новость. А лучшие попадут в наш Телеграм @sdelanounas_ru. Подробнее о том как работает наш сайт здесь👈

Источник: www.cnews.ru

Поделись позитивом в своих соцсетях

Комментарии 0

Для комментирования необходимо войти на сайт

  • 3
    Нет аватара termometrix08.11.20 02:26:29

    Задачи машинного обучения на самом дне сводятся к перемножению матриц с накоплением.

    Сжатием данных для улучшения производительности процессора и таким образом качества и масштаб изображений или речи например,но это достигается уже после осуществления обратного или окончательного процесса укрупнения каждого пикселя изображения и «кристаллизации» образа,речи и так далее.Применяются т.н. перцептроны с необходимами «весами"/критериального выбора/ для автоматизации самого процесса обучения программы/появления элементов ИИ/ и.т.д ,и.т.п

    Сам процесс называется свертка или конволюция при нейронных сетей.Вряд ли уважаемый господин,ознакомлен с такими вещами как тензорное исчисление,интеграл свертки из матана,метод наименьших квадратов и пр.

    Любое число в поле этих математических матриц/таблиц/ ,Анджей,можно сказать что отвечает за преобразование и укрупнение пикселей, это число носитель информации и оно меняется в процессе преобразования,наконец получается то самое улучшение и многократное увеличение изображения.

    Это фрактализация/детальное раздробление/ объекта по частям,потом с помощью нейресетевыми технологиями, более подробной обработкой улучшается и укрупняется образ того самого объекта.Существует и другие методы/Например: вейвлет-преобразования/.

    А что касатеся гигантского преимущества в области обработки больших массивов информации,массивов данных,представьте себе на секундочку,что вся Российская государственная библиотека или библиотека Конгресса США/30 млн томов/ можно «вместить» или поместить в перспективе лишь в одной цифре или несколько цифр.Частично можно «распечатать библиотеку»,оптимизировать информации,синтезировать,создавать новые экземпляры.

    скрытый текст

    Отредактировано: termometrix~09:35 08.11.20
    • 2
      Нет аватара guest08.11.20 10:56:14

      Вряд ли уважаемый господин,ознакомлен с такими вещами как тензорное исчисление,интеграл свертки из матана,метод наименьших квадратов и пр.

      Уважаемый господин тоже знает много разных слов, потому что два года проторчал на практике в нейроцентре у проф. Галушкина и пилил тензорные молотилки на виртексах во времена когда еще не было всех этих вот Machine Learning и прочего.

      Просто он не видит смысла в изложении своих глубинных познаний сравнительно подготовленной публике.

      Отредактировано: lowly cook~11:27 08.11.20