Google разработала собственные чипы для искусственного интеллекта’ />

Нa кoнфeрeнции Google I/O в Маунтин-Вью глава компании Сундар Пичаи анонсировал интегральные схемы (ASIC) собственной разработки интернет-поисковика, предназначенные для применения в глубоких нейронных сетях. Речь идет о комплексных сетях, объединяющих аппаратное и программное обеспечение, которые анализируют огромные массивы информации для различных технологий, включая машинное обучение и "искусственный интеллект".

Нейронные сети — ключевой компонент во многих онлайн-сервисах Google. Именно они отвечают за идентификацию объектов и лиц на фотографиях, распознавание голоса на Android-смартфонах, а также перевод текста с одного языка на другой. Компания называет свои чипы Tensor Processing Unit (TPU), поскольку в их основе лежит программный движок TensorFlow.

В Google используют TPU уже больше года, однако компания решила рассказать о них только сейчас. За нейронными сетями других крупных IT-компаний, таких как Facebook или Twitter, стоят традиционные графические процессоры, обычно производства NVIDIA. По словам Пичая, TPU лучше подходят для задач интернет-поисковика: в дата-центрах они помещаются в тот же отсек стойки, что и жесткий диск, и "обеспечивают намного лучшую производительность на ватт для машинного обучения", чем стороннее "железо".

В частности, TPU требуется меньше транзисторов на одну операцию в секунду, что позволяет "использовать более сложные и мощные модели машинного обучения", сказали в Google. Технические параметры инновационных процессоров не раскрываются. Кто занимается их производством, также неизвестно.

Источник: Wired