Перейти к основному контенту

6. Физические ограничения ИТ моделей

7.1 Основное ограничение современных ИТ систем связано со скоростью света — скорость электрического импульса в проводнике равно ⅔ скорости света. Казалось бы огромная величина, но вспомним, что основная масса используемых компьютеров работает в классической архитектуре фон Неймана, это значит что операции процессоров всегда выполняются последовательно. Устройства же с физическими параллельными вычислениями пока дороги и широко не распространены. 

Поэтому для увеличения мощности вычислительной системы в настоящее время широко используется, так называемое, горизонтальное масштабирование - распараллеливание вычислений на множестве компьютеров объединенных быстрым каналом TCP/IP.  

На этом пути возникают проблемы, а именно - Теорема САР:

Если система C (Сonsistency - согласованность данных в узлах распределенной системы) , то либо A  (Аvailability - гарантия ответа при отсутствия гарантии совпадения ответов от разных узлов),) либо Р (Partition tolerance - устойчивость к разделению узлов).

Источник: CAP-теорема простым, доступным языком

CA - все согласовано и быстро. Но нет горизонтального масштабирования. Только увеличивать мощность кластера.

СР - все хорошо, но ответ может быть долгим. Все горизонтально отмасштабировано, но время будет тратится на согласование данных в кластерах.

AP - отклик быстрый, все горизонтально отмасштабировано, но данные в узлах рассогласованы.

А это значит, что точную, быструю и обслуживающую в моменте “бесконечное” количество агентов глобальную компьютерную модель построить в принципе невозможно.

Помните господа марксисты и товарищи большевики обещали все научно запланировать и управлять рационально? Так ведь это в принципе невозможно, а это значит на этом пути нас ждет только упрощение, усечения системы. И никакой искусственный интеллект тут не поможет, он ещё и самый тормознутый в этой схеме.

Впрочем это ещё не самое интересное. Гораздо интереснее как же господа глобалисты будут обновлять соответствие между моделью и реальностью. Тут никакой Интернет вещей не поможет. Пока параметры модели попадут в ИТ систему, пока перестроятся модели АИ, она станет не актуальной. Значит будут гонять заезженную пластинку и люди будут плясать под неё ?

Источник: Теорема САР и глобальный ИИ.


7.2 Второе ограничение связано с достижением компонентами печатных схем предельного размера сопоставимого с размером атомов. Помните закон Мура — количество транзисторов на микрочипах вырастало в среднем в два раза каждые два года. Почему Закон Мура работал?

Долгое время Закон Мура работал как часы. Транзисторы уменьшались, их число росло, а мощность возрастала. А это, на секундочку рост по экспоненте, то есть очень быстро! Процессоры производят путем фотолитографии. Иными словами, лазер светит через трафарет, который называется маской, и процессор буквально выжигается на кремниевой подложке. 

Так индустрия и развивалась: когда достигали предела разрешения лазера — меняли его на лазер с более короткой длиной волны. 

Поначалу использовали дуговые ртутные лампы, а не лазеры, с длиной волны 436 нм — это синий свет. Потом освоили 405 нм — это фиолетовый. И наконец до 365 нм — ближний ультрафиолет. На этом эра ртутных ламп закончилась и началось использование ультрафиолетовых газовых лазеров. Сначала освоили 248 нм — средний ультрафиолет, а потом 193 нм — глубокий ультрафиолет или DUV. Такие лазеры давали максимальное разрешение в 50 нм и на какое-то время этого хватало. Но потом произошел переломный момент…

К 2006 году надо было осваивать техпроцесс в 40-45 нм. Разрешения лазеров было недостаточно. Гиганты Кремниевой Долины потратили сотни миллионов долларов для перехода на 157 нм (лазеры на основе фторид-кальциевой оптики), однако всё было впустую.

В 2000 году после пересечения порога в 100 нм из-за сильного уплотнения транзисторов, расстояние между ними стало настолько маленьким, что начались утечки тока! Грубо говоря, электрончики перескакивали из одного участка схемы в соседний — где их быть не должно. И портили вычисления... А также увеличилось паразитное энергопотребление.

Из-за этого пришлось поставить крест на росте тактовых частот. Если раньше частоты удваивались так же быстро, как транзисторы, то теперь прирост практически остановился.

В итоге, вопреки своим планам, Intel застрял на 14 нм техпроцессе, а тактовые частоты остановили свой рост. И примерно с 2010 года начались 10 интересных лет оптимизаций.

Если раньше прогресс обеспечивался брутальным уменьшением техпроцесса и прирост производительности давался легко, то теперь началась настоящая работа по допиливанию всего того, что человечество придумало за 40 предыдущих лет.

Люди стали искать инновации за пределами Закона Мура:

  • Процессоры стали многоядерными и многопоточными.
  • Появилась масса со-процессоров, которые невероятно эффективно решают отдельные задачи: обработка фотографий, кодирование видео, нейронные движки, облачные вычисления. В конце концов, перенос вычислений на видеокарты.
  • Люди наконец начали оптимизировать софт.
  • А производителям железа пришлось ежегодно совершенствовать свою продукцию. Ведь просто новый процессор, не позволял продать новый ноутбук.

И вот прошло 10 лет, пока мы с горем пополам производили 14-ти, 10-ти, и даже 7-нанометровые процессоры. Произошло событие, которого все очень долго ждали. Мир перешел на экстремальную УФ-литографию. Длина волны лазера скакнула с 193 нм до 13,5 нм, что является крупнейшим скачком за всю историю создания процессоров. Технологию разрабатывали 81 год и только в 2020 она заработала в полную мощь.

Ключевой момент технологии в том, что она позволит уменьшать техпроцесс вплоть до 1 нм, а это 10 атомов в толщину! И если вы считаете, что это невозможно, это не так. Компания IBM уже в этом году освоила 2 нм. Так, что 1 нм — это лишь дело техники.

Но, а что нас ждет за порогом в 1 нм? Как дальше повышать производительность?

 Скорее всего мы полностью откажемся от текущей концепции центрального процессора, основанной на архитектуре Фон Неймана и перейдем на асинхронные нейроморфные процессоры, построенные по подобию человеческого мозга. Кстати, их разработкой занимается тоже Intel.


Источник: Что такое Закон Мура и как он работает теперь? Разбор