Добре дошъл/дошла, Гост. Моля, въведи своето потребителско име или се регистрирай.
Ноември 23, 2024, 11:34:21

Автор Тема: Математика - най-съвършеният способ да водиш сам себе си за носа.  (Прочетена 2377 пъти)

0 Потребители и 1 Гост преглежда(т) тази тема.

Неактивен Engels

  • Just Member
  • *****
  • Коментари: 5913
    • Профил
Математика - най-съвършеният способ да водиш сам себе си за носа.
 Алберт Айнщайн.
Уви точно такова е положението с ИИ.

Quote (selected)
Ян Лекун (англ. Yann LeCun) — французский учёный в области информатики, основные сферы деятельности — машинное обучение, компьютерное зрение, мобильная робототехника и вычислительная нейробиология. Известен работами по применению нейросетей к задачам оптического распознавания символов и машинного зрения. Один из основных создателей технологии сжатия изображений DjVu (совместно с Леоном Боту[en] и Патриком Хаффнером). Вместе с Леоном Боту создал язык программирования Lush.
Лауреат премии Тьюринга (2018, совместно с Бенжио и Хинтоном за формирование направления глубокого обучения).

Лекун Ян - Как учится машина: Революция в области нейронных сетей и глубокого обучения
Текст
https://rutracker.org/forum/viewtopic.php?t=6359472
Аудио
https://rutracker.org/forum/viewtopic.php?t=6248133

Линейна алгебра
Тензорна алгебра
Вектори
Матрици
Quote (selected)
До начала 1980-х гг. архитектура машин
строилась на бинарных нейронах, которые выдавали
положительный выходной сигнал, когда взвешенная сумма их
входов превышала пороговое значение. Они выдавали –1, когда
взвешенная сумма снижалась. Таким образом, у них было два
возможных состояния выходного сигнала: либо +1, либо –1
(некоторые предпочитают нейроны с выходом 1 или 0).
Недостатком использования пороговых значений является
дискретизация функции стоимости: когда вес меняется лишь на
небольшую величину, это изменение может не повлиять на
выходной сигнал нейрона. И наоборот, если вес изменяется на
достаточную величину, происходит внезапное переключение
выхода нейрона с –1 на +1, или с +1 на –1. Если изменение
происходит до выхода из сети, это приводит к резкому изменению
функции стоимости.
Другими словами, небольшое изменение параметров может не
привести к изменению функции стоимости или, наоборот,
вызвать резкое изменение. «Горный пейзаж» функции стоимости
трансформируется в последовательность горизонтальных слоев,
разделенных вертикальными отрезками. Методы градиентного
спуска в такой модели не работают. Короче говоря, бинарные
нейроны несовместимы с обучением по алгоритму градиентного
спуска.
Тоест, казано на прост език невронът е аналогов, следователно неговата цифрова симулация изисква големи изчислителни ресурси.
А многослойна мрежа от цифрови неврони огромни изчислителни ресурси.
Време е за бърз урок по математика.
За да разберем точно какво правят тензорните ядра и за какво могат да се използват, първо трябва да изясним точно какво представляват тензорите.

Най-простият тип тензор, който можете да получите, ще има нулеви измерения и ще се състои от една стойност - друго име за това е скаларно количество. Когато започнем да увеличаваме броя на измеренията, можем да се натъкнем на други общи математически структури:
1 измерение = вектор
2 измерения = матрица
Строго погледнато, скаларът е тензор 0 x 0, векторът е 1 x 0, а матрицата е 1 x 1, но за по-голяма простота и как се свързва с тензорните ядра в графичния процесор, просто ще разгледаме тензори под формата на матрици.
Една от най-важните математически операции, извършвани с матрици, е умножението. Нека да разгледаме как две матрици, и двете с 4 реда и колони със стойности, се умножават:

Крайният отговор на умножението винаги е същият брой редове като първата матрица и същият брой колони като втората. Как се умножават тези два масива?

Както можете да видите, едно „просто“ изчисление на матричен продукт се състои от цял ​​набор от малки умножения и събирания. Тъй като всеки CPU на пазара днес може да извършва и двете от тези операции, това означава, че всеки настолен компютър, лаптоп или таблет може да обработва основни тензори.
Горният пример обаче съдържа 64 умножения и 48 събирания; всеки малък резултат води до стойност, която трябва да бъде съхранена някъде, преди да може да се натрупа с другите 3 малки резултата , преди тази крайна стойност за тензора да може да бъде съхранена някъде. Така че, въпреки че матричните умножения са математически ясни, те изискват много изчисления – трябва да се използват много регистри, а кешът трябва да се справи с много четения и записи.
В света на графиките огромно количество данни трябва да се движат и обработват под формата на вектори, всички по едно и също време. Възможността за паралелна обработка на графичните процесори ги прави идеални за работа с тензори и всички те днес поддържат нещо, наречено GEMM ( общо матрично умножение ).
Това е „слята“ операция, при която две матрици се умножават заедно и отговорът на който след това се натрупва с друга матрица. Има някои важни ограничения за това какъв формат трябва да приемат матриците и те се въртят около броя на редовете и колоните, които всяка матрица има.
Тензорната математика е изключително полезна във физиката и инженерството и се използва за решаване на всякакви сложни проблеми в механиката на флуидите , електромагнетизма и астрофизиката , но компютрите, използвани за обработка на тези числа, обикновено извършват матричните операции на големи клъстери от процесори.
Друго поле, което обича да използва тензори, е машинното обучение , особено подмножеството дълбоко обучение. Всичко това е свързано с обработката на огромни колекции от данни, в огромни масиви, наречени невронни мрежи . Връзките между различните стойности на данните получават специфично тегло – число, което изразява колко важна е тази връзка.
Така че, когато трябва да разберете как си взаимодействат всичките стотици, ако не и хиляди връзки, трябва да умножите всяка част от данните в мрежата по всички различни тегла на връзката. С други думи, умножете две матрици заедно: класическа тензорна математика!
Ето защо всички големи суперкомпютри за дълбоко обучение са пълни с графични процесори и почти винаги тези на Nvidia. Въпреки това, някои компании са стигнали дотам, че да направят свои собствени процесори с тензорно ядро. Google, например, обяви първия си TPU ( тензорен процесор ) през 2016 г., но тези чипове са толкова специализирани, че не могат да правят нищо друго освен матрични операции.
"The future is already here – it's just not evenly distributed."

Неактивен Engels

  • Just Member
  • *****
  • Коментари: 5913
    • Профил
Концепцията за задълбочено обучение включва сложни изчислителни задачи като обучение на дълбоки невронни мрежи, математическо моделиране с помощта на матрични изчисления и работа с 3D графики. Всички тези задачи за дълбоко обучение изискват избор на сравнително мощен графичен процесор.
И така, какво прави GPU идеален за машинно обучение? Това се дължи на различни причини. Графичните процесори са проектирани да извършват множество изчисления паралелно, което е отлично за изключително паралелния характер на алгоритмите за дълбоко обучение. Те също така съдържат голямо количество памет, което е полезно за модели с дълбоко обучение, които изискват много данни.
NVIDIA е популярен избор заради своите библиотеки, известни като CUDA toolkit. Тези библиотеки улесняват настройването на процеси за дълбоко обучение и осигуряват основата на стабилна общност за машинно обучение, използваща продуктите на NVIDIA. В допълнение към GPU, NVIDIA предоставя и библиотеки за популярни рамки за дълбоко обучение като PyTorch и TensorFlow.
Недостатъкът на NVIDIA е, че напоследък поставя ограничения за това кога можете да използвате CUDA. Поради тези ограничения, библиотеките могат да се използват само с графични процесори на Tesla, а не с по-евтин RTX или GTX хардуер. Това има значителни финансови последици за фирмите, обучаващи модели за дълбоко обучение. Също така е проблематично, когато вземете предвид, че докато графичните процесори на Tesla може да не осигурят значително по-висока производителност от алтернативите, те струват до десет пъти повече.
AMD GPU имат изключително минимална софтуерна поддръжка. AMD предоставя библиотеки като ROCm . Всички значими мрежови архитектури, както и TensorFlow и PyTorch, поддържат тези библиотеки. Подкрепата на общността за разработването на нови мрежи обаче е минимална.

3 най-добри NVIDIA GPU за задълбочено обучение
NVIDIA Titan RTX
CUDA ядра: 4608
Тензорни ядра: 576
GPU памет: 24 GB GDDR6
Скорост на паметта: 673GB/s
Изчислителни API: CUDA, DirectCompute, OpenCL™

NVIDIA Tesla V100
CUDA ядра: 5120
Тензорни ядра: 640
Скорост на паметта: 900 GB/s
GPU памет: 16GB
Тактова честота: 1246 MHz
Изчислителни API: CUDA, DirectCompute, OpenCL™, OpenACC®

NVIDIA Quadro RTX 8000
CUDA ядра: 4608
Тензорни ядра: 576
GPU памет: 48 GB GDDR6
Скорост на паметта: 672 GB/s
Изчислителни API: CUDA, DirectCompute, OpenCL™
 
"The future is already here – it's just not evenly distributed."

Неактивен Engels

  • Just Member
  • *****
  • Коментари: 5913
    • Профил
Алтернативата ESPERANTO
Чипът ET-SoC-1 включва над хиляда RISC-V процесора на един 7nm чип.
1088 енергийно ефективни ET-Minion 64-bit RISC-V подредени ядра, всяко с персонализирана векторна/тензорна единица, оптимизирана за ML приложения
4 високопроизводителни ET-Maxion 64-битови RISC-V извънредни ядра за работа на операционна система в режим на самостоятелно хостване
Над 160 милиона байта SRAM в чипа
Интерфейси за голяма външна памет с LPDDR4x DRAM и eMMC FLASH с ниска мощност
PCIe Gen4 x8 и други често срещани I/O интерфейси
 
ET-SoC-1 PCIe картата предоставя изчислителната производителност и ефективност на един ET-SoC-1 чип в компактен, нископрофилен PCIe Gen 4 форм фактор.
Характеристика:
Единичен ET-SoC-1 чип на компактна, нископрофилна PCIe Gen 4 карта
32 гигабайта LPDDR4x DRAM
Пълен набор от сензори за наблюдение и портове за физическо управление
Задвижван от машинно обучение на есперанто и комплекти за разработка на софтуер с общо предназначение
До 16 карти на система
Съвместно разработен, тестван и сертифициран от Penguin Solutions
Сертификати за безопасност и емисии за Северна Америка, Европейския съюз, Обединеното кралство, Южна Корея и Япония

https://www.esperanto.ai/
"The future is already here – it's just not evenly distributed."

Неактивен Engels

  • Just Member
  • *****
  • Коментари: 5913
    • Профил
Въпреки енергийно ефективната алтернатива ESPERANTO все още сме в зоната на чисто цифровата електроника и разточителната на изчислителни и енергийни ресурси груба математика.
IBM променя играта
IBM представи нов „прототип“ на аналогов чип с изкуствен интелект, който работи като човешки мозък.
Hoвият чип c изĸycтвeн интeлeĸт e paзpaбoтeн в ĸoмплeĸca NаnоТесh в Oлбъни нa ІВМ и ce cъcтoи oт 64 aнaлoгoви изчиcлитeлни ядpa в пaмeттa. ІВМ oбяcнявa, чe e вгpaдилa в чипa ĸoмпaĸтни, aнaлoгoвo-цифpoви пpeoбpaзyвaтeли във вcяĸa плoчĸa или ядpo зa пpexoд мeждy aнaлoгoвия и дигитaлния cвят.
C нaвлизaнeтo нa пaзapa нa вce пoвeчe мoдeли нa ocнoвaтa нa гeнepaтивeн ИИ, пpoизвoдитeлнocттa и eнepгийнaтa eфeĸтивнocт нa тpaдициoннитe изчиcлитeлни мeтoди, c ĸoитo paбoтят тeзи мoдeли ca нa cвoя пpeдeл.
Специалисти от много страни по света работят върху създаването на такива структури от 2008 г., когато беше направено първото откритие в тази област. Един конвенционален транзистор може да бъде в едно от двете състояния: или включен (“1”), или изключен (“0”). Мемристорът работи на други принципи и може да бъде в едно от много състояния между "0" и "1". 
Основното предимство на хардуерните невронни мрежи, базирани на мемристори, е ниската консумация на енергия. Например, традиционните устройства за съхранение използват десет пъти повече енергия при запис на информация. Новата технология прави възможно създаването на изчислителни системи, които имитират начина, по който работи мозъкът. В такава система мемристорът може да действа като изкуствен синапс, аналогично на връзката между невроните. Силата на тази връзка може плавно да се променя в диапазона между логически "0" и "1".
Използването на мемристори с голяма степен на вероятност може да доведе до успех в областта на създаването на невроморфни компютри, тъй като самата идея на тези устройства се основава на способността на един електрически елемент да бъде едновременно калкулатор и памет за състоянието си, всъщност действат като клетка на паметта.
Ключовият играч в това начинание е мемристорът. Терминът е образуван от две думи - памет ( " памет " ) и резистор ( " съпротивление " ). Микроелектронният компонент е необичаен вид резистор с нещо като памет.
За първи път за мемристорите, теоретикът на схемотехниката Леон Чуа говори през 1971 г., но идеята беше приложена на практика едва през 2008 г. в HP Labs.
Техният потенциал бързо беше оценен, особено в областта на невроморфните изчисления, където те служеха като елементи на изчислителни схеми.
Мемристорите, които имат способността да запомнят състоянието си дори след изключване на захранването, донесоха ново измерение на електронните схеми. Техните уникални свойства са били използвани в различни приложения , от използване като компактни паметови елементи в хранилища с данни с висока плътност до изчисления в паметта.
В невроморфното изчисление, което има за цел да имитира архитектурата на човешкия мозък, мемристорите могат да се използват за създаване на изкуствени синапси, връзките между невроните в мозъка. Това от своя страна ще доведе до създаването на по-ефективни и мощни невроморфни системи, които могат да се учат и адаптират като човешкия мозък.
Машинното обучение и изкуственият интелект изискват обработка на огромни количества  данни. Мемристорите, значително ускоряват тези процеси. 
"The future is already here – it's just not evenly distributed."

Неактивен Maximus II

  • Just Member
  • *****
  • Коментари: 9201
  • Fuck the EU
    • Профил
Избрах! Но, народът не го интересува!