AMD má možná kšeft od Tesly. Prý jí pomáhá vyvíjet AI procesory pro samořídící auta

16

Pokud nemáte v popisu práce čtení tiskových zpráv, pak vám asi podobné informace uniknou, ale někteří zarytí fanoušci AMD možná sledují firmu tak podrobně, že pamatují informace o jejích tzv. „semi-custom“ zakázkách. To jsou čipy vyvíjené na zakázku a případně se zapojením nějakých specialit daného zadavatele. Semi-custom byznys se zatím realizoval čistě v čipech pro herní konzole, ale před časem AMD zmínilo, že má i jednu zakázku mimo herní oblast. O co přesně jde, nikdy prozrazeno nebylo, ale tento týden se na webu objevila zpráva, která má toto tajemství odhalovat a dotyčný projekt je podle ní docela zajímavý. AMD by se totiž údajně mělo zaplést do oblasti umělé inteligence a samořídících vozů, a to s jedním z tahounů tohoto oboru.

Webová verze CNBC, což je větev amerického televizního kanálu NBCUniversal, zaměřená na finanční svět, publikovala ve čtvrtek zprávu, že s AMD spolupracuje firma Tesla. Nikoliv ta česká, ale Tesla Motors, tedy přední výrobce elektromobilů. Tato firma má vyvíjet vlastní hardwarové řešení pro samočinné řízení automobilů umělou inteligencí. Tesla již používala v autech čipy MobilEye (kterou coby vstupenku do sféry automobilů koupil Intel) i Nvidia. Podle CNBC ale vyvíjí zcela vlastní AI čip a součástí tohoto čipu je také „IP“ od AMD. Patrně je tedy v tomto programu AMD namočeno formou licencování technologie, nebo jako partner spolupracující přímo na návrhu a čip či čipy pro Teslu by pak byly oním dosud tajným semi-custom projektem.

CNBC se odvolává jako obvykle na nejmenovaného informátora, který má údajně k snahám Tesly blízko. Podle jeho podání už prý Tesla nyní dospěla do takové fáze, že dostala z továrny vyrobené první kusy svého čipu. Během dejme tomu roku by se mohly sériové kusy dostat i do nějakého zkušebního nasazení a zda je do jejich návrhu a výroby skutečně zapojeno AMD, by mohlo by i oficiálně ohlášeno a potvrzeno. Na druhou stranu úplně první generace hardwaru se často stává spíše zkouškou na nečisto, takže není jisté, že Tesla do svých aut reálně bude montovat hned první generaci křemíku, který vyvíjí. V tomto případě ale také může hodně dlouho zrát softwarová stránka, neboť hardwarové jednotky pro běh AI algoritmů jsou spíše tou snazší částí.

Kontakty Jima Kellera?

Tesla má údajně na vývoji čipu aktivní tým přes padesáti lidí, přičemž vedení zajišťuje údajně Jim Keller. Tento návrhář procesorů s dlouhou kariérou (mimo jiné DEC, P. A. Semi, Apple) přišel do Tesly právě z AMD, kde při svém už druhém působení pobyl tři roky v době vývoje jádra Zen. Navíc prý nemá být v Tesle jediným inženýrem z tohoto předchozího působiště, podle analytika Patricka Moorheada (který sám původně pracoval v AMD/ATi) je takových vícero. Ovšem pozor, Moorhead také varuje, že vypuštění této informace může být jen trik Tesly s cílem dotlačit Nvidii k lepší cenové nabídce.

Jim Keller v roce 2005 během účinkování v P.A. Semi. Akvizice této firmy eventuálně přinesla Applu jeho vlastní procesory
Jim Keller v roce 2005 během účinkování v P.A. Semi. Akvizice této firmy eventuálně přinesla Applu jeho vlastní procesory

CNBC uvádí, že právě tato personální vazba mohla přispět k navázání spolupráce a údajnému použití některých technologií od AMD. To by možná do procesoru vyvíjeného Teslou mohlo dodat třeba procesorová jádra a nebo fyzickou implementaci, zatímco přímo bloky pro hardwarovou akceleraci AI by nejspíš mohly být navržené v rámci Tesly pod Kellerem. V procesoru by se tak teoreticky mohlo objevit třeba ARM jádro K12, které původně měl Keller vyvíjet. Pokud tedy nebylo mezitím zrušeno, jelikož jsme o něm už dlouhou dobu neslyšeli a v serverové oblasti AMD podle všeho přesměrovalo všechno úsilí na architekturu Zen a instrukční sadu x86 (což byla nejspíš správná volba).

To, že Tesla pracuje na vlastním křemíku, možná nepřímo potvrdil šéf GlobalFoundries Sanjay Jha. Na konferenci GTC2017 (kde byl odhalen proces 12LP) totiž mluvil o tom, že velké technologické firmy se začínají pro své potřeby obracet přímo na výrobní závody. Teslu jmenoval vedle Apple, Amazonu nebo Googlu jako příklad, i když později sdělil, že tím nechtěl tvrdit, že je Tesla přímo zákazníkem GlobalFoundries.

Zapojení AMD takto přímo doložené není a zatím tato část zprávy stojí jen na onom nejmenovaném zdroji. Pokud je pravdivé, může spolupráce mít různou podobu a rozměr. Nicméně AMD by z ní pravděpodobně mělo mít nějaký profit a minimálně by asi získalo další kredit jako zakázkový dodavatel těchto „semi-custom“ čipů mimo omezenou oblast herních konzolí. Zda mu to také umožní proniknout do automobilového průmyslu (jak se někteří pozorovatelé domnívají) je ale velmi nejisté, jelikož vyvinuté čipy budou patřit jen Tesle a ta je asi dalším výrobcům škatulí na kolech nepustí.

AMD má možná kšeft od Tesly. Prý jí pomáhá vyvíjet AI procesory pro samořídící auta

Ohodnoťte tento článek!

16 KOMENTÁŘE

  1. „V tomto případě ale také může hodně dlouho zrát softwarová stránka, neboť hardwarové jednotky pro běh AI algoritmů jsou spíše tou snazší částí.“

    A na to prisel autor jak? Nic jednoducheho na tom opravdu neni.

    • Co by na tom nebylo jednoduchého? HW prostě jen musí umět nasimulovat neuron, což není nic jiného, než výstup=nějaká přechodová funkce (třeba hyperbolický tangens) ze sumy (vstup x jeho váha). Důvod, proč je to na klasickém počítači pomalé, je ten, že to násobení vstup x váha dělá postupně, což celkem zdržuje, když jeden neuron má třeba tisíc vstupů. Takže ten HW na AI je v podstatě jen taková lepší kalkulačka, co zvládá souběžně hodně násobení. A mimo násobení, sčítání a nějaké té přechodové funkce nemusí umět nic jiného.

      • Kdyz jste laik, tak byste se k tomu nemel moc vyjadrovat.

        Neuronove site se skladaji z vrstev. Tech vrstev muze byt velmi mnoho. Kazda vrsta muze mit tisice neuronu. Pokud mate vrstvu A a za ni nasleduje vrsta B, tak kazdy neuron ve vrstve A komunikuje se vsemi ve vrste B. Pro dve vrstvy s 1000 neurony je to 1000000 spojeni. Je to vlastne spolu s vahami kazdeho spojeni potencialne obrovska matice, navic nema fixni velikost. Sirky vrstev se nemeni jen v ramci ruznych druhu siti, ale i v ramci ruznych vestev v jedne siti. Jenze hardware je jaksi fixni. Jak to vyresit? Na radu prichazi faktorizace, neboli snaha rozdelit tu velkou matici na mnoho malych, ktere uz jsou jednotkou s fixni velikosti zpracovatelne. A to uz neni trivialni. Jenze do hry se pak vkladaji ruzne typy vyhodnocovani signalu v ruznych vrstvach neuronu a take metody uceni, jako treba backpropagation. Pak tu mate jeste scheduling, ktery se stara o rozdelovani prace na zaklade vsech tehle informaci.

        Proto hardware napr. v TensorCores samozrejme nedela jen FMA, i kdyz to je hlavni operace. Musi mit i tu ostatni logiku a to je ta netrivialni cast, kterou vy a autor jako laikove jaksi nevidite. Neni nahoda, ze takovy hardware v efektivni podobe maji dnes jen nejvetsi hraci, jako Nvidie a Google. AMD s velkou slavou (a k popukani vsech krom skalnich AMD fandu) vydala cip pro AI, ktery byl uz v dobe vydani mnohonasobne pomalejsi, nez konkurencni reseni. Zadne akceleracni jednotky nema. A AMD muze mit stejny problem tuhle technologii napodobit jako mela u Vegy s tile-based rasterizerem. Vsichni vime, jak tragicky to dopadlo.

        • Tensor Cores a TPU jsou hrubá síla a výkon. IMHO to, co v AI aplikacích udělá ten skutečnej kvalitativní rozdíl, bude ale stejně software. Řízení auta a rozpoznávání okolí není uzavenej a přesně definovanej problém jako hashování BTC nebo dekódování H.264, aby se dalo „vyřešit“ na úrovni hardwaru, IMHO to hlavní bude v softwaru. Ten bude sice potřebovat určité výkonnostní kvality, ale to bude jen nutná, ne postačující podmínka.

        • Myslím, že o neuronových sítích něco vím. Před 19 lety jsem na ně dělal a obhájil diplomku.
          Učení neuronových sítí není podstatné, protože na těchto akcelerátorech, o kterých je řeč, běží už naučená neuronová síť. Ono by taky bylo celkem trapný, kdyby se auto učilo metodou pokus omyl až za provozu.
          A na vyhodnocování sítě je právě podstatná ta masivní paralelizace té funkce suma(Xi*Wi). Od hardwaru se tedy očekává, že bude umět tohle. A to vaše rozsekání na jednotlivé části taky nebude dělat ten čip, ale software, který ho řídí. A to ne na základě vstupních dat (protože ta neuronová síť bude mít stále stejné zapojení), ale na základě nějakých optimalizací, které udělají už ti, co tu neuronovou síť navrhli a vytrénovali.
          Vy mluvíte o hardwaru, který umí učení neuronových sítí. A to je něco úplně jiného, než o čem je řeč v článku. Tohle bude krabička, která dostane formou firmwaru tu perfektně naučenou a odladěnou neuronovou síť, kterou už jen bude vyhodnocovat. A jediná změna bude tehdy, když výrobce uvolní nový firmware, tedy nové zapojení neuronové sítě s jinými vahami jednotlivých synapsí.

          • Dost pochybuju, ze mate uz 19 let diplomku z neuronovych siti a chapete, jak jejich uceni funguje, kdyz jejich prakticke vyuziti umoznily whitepapery o jejich uceni (Hinton et al., Andrew Ng, Jeff Dean, D. Blei a M. Jordan) az teprve pred nekolika lety. Do te doby se machine learning odehraval predevsim okolo Support Vector Machines.

            A jestli si myslite, ze faktorizace tak obrovskych matic se da prakticky delat na CPU v realnem case, tak ten diplom jdete vratit.

            Pro vasi informaci, i kdyz v pripade Tesly (auto) neni uceni dulezite, TensorCores Nvidie samozrejme podporuji i uceni. V jadru jako takovem vubec zadny rozdil neni. Ta logika okolo je podstatna. Dokonce je to hlavni selling point GV100, protoze diky TensorCores se uceni i tech nejvetsich siti smrsklo z mesicu na dny a hodiny.

          • Pochybovat samozřejmě můžete jak chcete. Že jejich využití bylo v tom roce 1998 dost mizerné, souhlasím. Třeba neuronová síť, která měla detekovat osmibitové prvočíslo se učila (včetně toho, že nebylo dopředu známo, kolik bude mít neuronů) půl dne na Pentiu MMX přetaktovaném na 250 MHz. Používal jsem backpropagation. A samozřejmě jsem si musel vše naprogramovat sám od základu, takže mám celkem představu, kde to vázlo, i to, že dělat neuronové sítě na CPU, je běh na hodně dlouhou trať. Ovšem v té době nebylo nic jiného. Žádná GPU, která se na akceleraci nechají využít a dokonce ani žádné AVX instrukce, které by tomu pomohly alespoň trochu. Samotné MMX se na ty reálné výpočty nehodilo.
            Později jsem přišel na to, že daleko lepší je používat genetické algoritmy a backpropagation použít vždy jen pro jemné doučení.
            Mezi vyhodnocováním a učením není v principu žádný rozdíl, jen na to druhé potřebujete tak milionkrát vyšší výpočetní výkon.

          • „Dost pochybuju, ze mate uz 19 let diplomku z neuronovych siti a chapete, jak jejich uceni funguje, kdyz jejich prakticke vyuziti umoznily …“

            To je podobně pitomé jako tvrdit, že třeba v roce 1960 nikdo nemohl chápat lineární programování, když bylo prakticky použitelné až po (pozdějším) příchodu rozumně velkých počítačů. Že bylo něco prakticky použitelné až později ještě nikdy ve světě výpočetní techniky neznamenalo, že příslušná teorie nemohla být známa předem.

        • @Maudit..ty jsi opravdu vtipny …ja jsem mel jeden z predmetu na statnicich Neuronove site a to bylo v roce 1994. Sice si z toho pomatuji kulove, protoze jsem to od te doby nemel moznost vyuzit a od te doby uz jaksi ujel vlak, ale tvoje predstavy o tom, ze Neuronky jsou nejakou „nynejsi“ vyozenosti jsou opravdu jen k smichu.
          Mozna by jsi mel nejdrive vratit neco ty sam (pokud vubec neco jako diplom mas a neni to jen Mrkvosofti papir), nez se tady zacnes obouvat treba Holecka… trocha slusnosti by ti taky neuskodila.

          • Kdybys o tom neco vedel, tak by ti asi doslo, ze tehdy a dnes to bylo o necem zcela jinem. Sorry ale kdyz nechape, ze se musi faktorizovat a pak si dokonce mysli, ze se to da delat efektivne na CPU, tak opravdu naprosto netusi. Stejne jako ty. To je bohuzel fakt.

  2. Na nejakem HW pracovat budou a jiste to bude neco z oblasti ARM, je to pro ne nejrychlejsi cesta jak si takovej HW navrhnout a zprovoznit

    otazkou je co se SW casti, neb to co je v Teslach nyni je po SW strance take dilem Nvidie a Tesle se prave nelibilo a nelibi ze to Nvidia nabizi dalsim automobilkam, vpodstate ty hromadne zkusenosti tak Nvidia muze vyuzivat dal pro business ktery jde primo proti obchodnim zajmum Tesly 🙂 paradoxni je to hlevne proti prohlasenim Muska, ktery by chtel a dari se mu rozjet celosvetovou elektromobility, a tvrdil ze Tesle je k tomu nastrojem a nema tendence bejt dobudoucna velkou automobilkou, ale ted kdys se Tesle relativne dari, tak obraci a pod rouskou anonymity zacina delat kroky proti konkurenci ktera se toho zacina chytat, ostatne i velke uvolneni patentu Tesly bylo ve finale uvolneni asi 20 patentu z 30, kde o ty nejdulezitejsi ohledne chemie baterii se jaksi nepoddelili, proste velke a velice dobre zmaknute PR 🙂

    ale ja Tesle fandim, jiz jen proto ze mam pomalu jejich akcii a ze to je firma ktera oblast elektromobility opravdu rozhybala 🙂