MAX
Подпишись
стань автором. присоединяйся к сообществу!
Есть метка на карте 07 ноября 56
102

В России создана оригинальная процессорная архитектура, способная потеснить NVidia

скопировано с сайта cnews.ru

Входящая в группу «Хайтэк» российская компания IVA Technologies завершила разработку новой полностью оригинальной микропроцессорной архитектуры, и она продемонстрировала впечатляющие результаты на международных тестах. Появление чипов на ее основе ожидается в начале 2021 г.

Превосходство российской архитектуры

Как выяснил CNews, в России в I квартале 2021 г. будут выпущены первые образцы отечественных чипов, реализованных на новейшей процессорной архитектуре IVA TPU. Она была разработана российской компанией IVA Technologies, которая входит в группу «Хайтэк».

[читать статью полностью...]

Кстати, а вы знали, что на «Сделано у нас» статьи публикуют посетители, такие же как и вы? И никакой премодерации, согласований и разрешений! Любой может добавить новость. А лучшие попадут в наш Телеграм @sdelanounas_ru. Подробнее о том как работает наш сайт здесь👈

Источник: www.cnews.ru

Поделись позитивом в своих соцсетях

Комментарии 0

Для комментирования необходимо войти на сайт

  • 7
    Нет аватара guest07.11.20 22:46:45

    Задачи машинного обучения на самом дне сводятся к перемножению матриц с накоплением. TPU — это устройство, которое специфически занимается именно перемножением матриц и накоплением c гигантской степенью распараллеливания. То есть вместо того чтобы делать это ресурсами процессора общего назначения, ставят рядом такое вот и оно делает это очень сильно быстрее.

    Отредактировано: Просто пыль~22:49 07.11.20
    • 2

      Упростил…    

      • 7
        Нет аватара guest08.11.20 01:47:28

        Ну я не знаю как проще. Могу на примере собаки.

        Есть матрица описывающая собаку в которой 4 признака: уши(0.5), хвост(0.7), зубы(1), лапы(0.1). В скобках весовые коэффициенты обозначающие важность данного признака. И задано что для того чтобы считать животное на картинке собакой надо набрать не менее 1.

        Далее есть картинка на которой есть уши и лапы. То есть вектор вида (1,0,0,1). Перемножаем первое на второе (вектор данных на вектор весовых коэффициентов) и получаем (0.5, 0, 0, 0.1) складываем и получаем 0.6 в сумме и вывод что это не собака.

        Именно это и делает TPU — перемножает матрицы и складывает.

        В реальной жизни матрицы имеют гигантские размеры и в множестве признаков есть всевозможный зоопарк, который был набран в частности отгадыванием капчи при логине в почту. То есть определить на картинке собачку для обычного процессора — весьма трудоемкая задача, так как ему нужно осуществить 100500 перемножений и сложений. А TPU занимается только этим в количестве 100500 параллельных процессов одновременно.

        В конце концов как было сказано

        на ресурсе, где собирается сравнительно подготовленная публика

        должны разбираться в том как работают нейросети.

        Отредактировано: Просто пыль~01:53 08.11.20
        • 1

          Уф, прикольно. Спасибо за пояснения. Но я лично рассчитывал на нечто типа -- офигенно полезная штука, раньше у нас таких не было.     Теперь зависимость от импортных технологий (комплектующих, программ или прочего) снизилась ещё на 5%. Ведь нам, обывателям, в основном важен лишь один критерий, можем ли мы всё делать сами. А если можем, то насколько наш продукт успешен на рынке и конкурентоспособен.

          • 3
            Нет аватара termometrix08.11.20 03:48:59

            Распознавание образов описал наш друг.И соотвественно обучение программ делать это автоматически.Конечно настройки в виде весовых коэффициентов,признаков, всегда можно менять.

            Этот алгоритм написан с помощью основной структурной единицы нейронных сетей-перцептрон,который подлежит самообучению.

            Перцептрон был разработан теоретически в качестве структурной единицы ИИ еще,если не ошибаюсь, в 1949 или 1950 г. Фрэнком Розенблаттом.Нейрофизиолог и кибернетик по образованию.Он создал первый нейрокомпьютер «Марк 1». Просто тогда еще не существовала необходимая элементая база достаточного быстродействия,эффективности для создания нейрпроцессоров современного типа и пр. По нынешним меркам тогда еще даже нормальные телевизоры не существовали нигде в мире.

            Отредактировано: termometrix~11:21 08.11.20
          • 0
            Нет аватара guest08.11.20 13:15:55

            раньше у нас таких не было

            Нейросети на FPGA? Были и есть. Причем самая популярная тема куда со времен царя Гороха в основном роет вся мощь российской науки — это попытки предсказать движение цен акций на фондовом рынке. Впрочем в стремлении изобрести чудо машину для генерации бабла из воздуха, никто из ученых светил насколько мне известно — пока не преуспел.

            Просто с появлением GPU стоимость таких расчетов радикально снизилась, а потом начался хайп и люди пошли дальше — начали делать TPU в виде отдельных специализированных чипов.

            Но в целом это конечно не ново даже в нашей стране.

            А запустить производство ASIC чуть ли не завтра IVA обещает аж с 2018 года. Так что лично я испытываю определенный скепсис касательно данной перспективы.

            Отредактировано: lowly cook~18:00 08.11.20
        • 0
          Нет аватара MegaVaD10.11.20 21:42:53

          отгадыванием капчи при логине в почту

          Вот не надо. Иначе б это была не валидация, если бы правильный ответ не был известен «по ту сторону»

          • 0
            Нет аватара guest10.11.20 22:12:30

            Вот не надо. Иначе б это была не валидация, если бы правильный ответ не был известен «по ту сторону"

            Там не все так просто. Разные варианты. Например:

            Вам дают две капчи подряд — по одной правильный ответ известен, а по второй нет. Причем для Вас засчитывается та по которой известен правильный ответ, а вторая идет машине на обучение.

            Или например «правильные» ответы появляются только после того как 100500 человек их угадало, а изначально их вообще нету. То есть для Вас вообще пофигу что Вы там навыбирали.

            И прочие извращения — много их.

            Причем отрабатываются не только и не столько критерии разпознавания знаков там или текста, сколько сами алгоритмы самообучения. Еще когда Вы отгадываете картинку — им важно в какой поcледовательности, какой квадратик ткнете первый — ибо очевидно он будет самый менее сомнительный из всех.

            Сейчас Google обучает свою Waymo — поэтому и тематика почти всех капч. соответствующая.

            До этого были названия улиц и появился Street View.

            Отредактировано: lowly cook~22:27 10.11.20
    • 3
      Нет аватара termometrix08.11.20 02:26:29

      Задачи машинного обучения на самом дне сводятся к перемножению матриц с накоплением.

      Сжатием данных для улучшения производительности процессора и таким образом качества и масштаб изображений или речи например,но это достигается уже после осуществления обратного или окончательного процесса укрупнения каждого пикселя изображения и «кристаллизации» образа,речи и так далее.Применяются т.н. перцептроны с необходимами «весами"/критериального выбора/ для автоматизации самого процесса обучения программы/появления элементов ИИ/ и.т.д ,и.т.п

      Сам процесс называется свертка или конволюция при нейронных сетей.Вряд ли уважаемый господин,ознакомлен с такими вещами как тензорное исчисление,интеграл свертки из матана,метод наименьших квадратов и пр.

      Любое число в поле этих математических матриц/таблиц/ ,Анджей,можно сказать что отвечает за преобразование и укрупнение пикселей, это число носитель информации и оно меняется в процессе преобразования,наконец получается то самое улучшение и многократное увеличение изображения.

      Это фрактализация/детальное раздробление/ объекта по частям,потом с помощью нейресетевыми технологиями, более подробной обработкой улучшается и укрупняется образ того самого объекта.Существует и другие методы/Например: вейвлет-преобразования/.

      А что касатеся гигантского преимущества в области обработки больших массивов информации,массивов данных,представьте себе на секундочку,что вся Российская государственная библиотека или библиотека Конгресса США/30 млн томов/ можно «вместить» или поместить в перспективе лишь в одной цифре или несколько цифр.Частично можно «распечатать библиотеку»,оптимизировать информации,синтезировать,создавать новые экземпляры.

      скрытый текст

      Отредактировано: termometrix~09:35 08.11.20
      • 2
        Нет аватара guest08.11.20 10:56:14

        Вряд ли уважаемый господин,ознакомлен с такими вещами как тензорное исчисление,интеграл свертки из матана,метод наименьших квадратов и пр.

        Уважаемый господин тоже знает много разных слов, потому что два года проторчал на практике в нейроцентре у проф. Галушкина и пилил тензорные молотилки на виртексах во времена когда еще не было всех этих вот Machine Learning и прочего.

        Просто он не видит смысла в изложении своих глубинных познаний сравнительно подготовленной публике.

        Отредактировано: lowly cook~11:27 08.11.20