Reklama

mareknr

Příspěvky uživatele

1) Pokiaľ nebol vysoký stupeň teselácie využitý aj kvôli niečomu inému ako len na využitie situácie, že AMD grafiky nemali pre neho dostatočne výkonný teselátor, tak súhlasím s tým, že to bolo zbytočné. Pokiaľ viem, tak to bolo takto využité v jednej hre s Batmanom (nie v celej sérii) a v Crysis 2 (benchmarky ma nejak netrápia, hlavne nie všetky riešila NVIDIA ale vysoký stupeň teselácie využili autori samy na prezentáciu výkonu). Zvyšok je už také generalizovanie a navodzovanie dojmu, že sa to dialo v každej hre čo nie je pravda. Ale budiž. Ak to bolo iba samoúčelné a bez pridanej hodnoty tak súhlasím, že je to zbytočné.

2) Viem čo je GameWorks. Viem ako s ním NVIDIA narába a je mi jasné, že AMD bude tvrdiť že majú niečo ekvivalentné a open. Čo to ale znamená. Majú hotové riešenie alebo iba podklady a chcú, aby tú prácu za nich urobil niekto iný? V takom prípade je jednoduché dať to do placu a otvorené. Veď keď ma to nestálo dodtaočné zdroje, môžem byť aj štedrý. Čo sa týka Mantle, na to som zvedavý ako nakoniec dopadne. Dúfam, že dobre a že bude v svojej sfére vplyvu tlačiť na efektivitu SW.

3) Naozaj nesmú výojári zdrojový kód GameWorks upravovať? Bol som v tom, že podľa potreby ho upraviť môžu, ale nemôžu ho poskytnúť tretím stranám.

4) NVIDIA PhysX naozaj kúpila, ale zároveň na ňom odrobila kus práce. Sledoval som to celý čas a ten PhysX, ktorý je aktuálny v súčasnosti má od toho pôvodného, ktorý NVIDIA získala dosť ďaleko. Taktiež nie je pravda, že NVIDIA tlačí staré SDK 2.x. To závisí od vývojárov a od toho, aký používajú herný engine a kedy sa PhysX začlenil do vývoja hry. Ak si všimneš, väčšina hier doteraz stále používala Unreal Engine verzie 3 a Unity 4 (myslím tých čo používali PhysX). Tým mali PhysX v základe, ale v starej verzii. Prechod na novú je ale komplikovaný pretože verzia 3.x je kompletne prerobená a hlavne až kým neprišla verzia 3.2, tak aj feature list starej verzii 2.8.x bol širší. Dnes to už ale neplatí. PhysX vo svojej najnovšej verzii je integrovaný v Unreal Engine 4 a v Unity 5. Každá hra, ktorá ho využíva a stojí na týchto engine-och už bude mať jeho novú verziu a 2.x pôjde postupne do zabudnutia. Keď chceš vidieť ako sa PhysX vyvíjal v smere CPU výkonu, pozri si tento článok a test: http://www.codercorner.com/blog/?p=748. Tak isto ľudia zabúdajú na to, že NVIDIA si nevyvíja PhysX na kolene, ale že je to tiež v spolupráci s vývojármi.

5) Havok ale nie je jediný prešlap AMD. Mali predsa rovnaké vyhlásenia a skúšky s Bulletom, ktorý nikto nekúpil a kam to dotiahli? Ak by to s GPU fyzikou mysleli vážne, tak už by sme mali nejaké výsledky (myslím reálne v hrách). Celé to ale bolo iba o tom, že AMD chcelo dostať do povedomia ľudí to, že aj joni majú alternatívu ku GPU PhysX aj keď ju nemali a to Open (aká to paralela s takmer všetkým čo AMD robí, aspoň FreeSync dotiahli ďalej a dúfam, že Mantle bude dotiahnuté do úspešného konca tiež).

"nova verze havoku je nasobne rychlejsi a skaluje na všechna jadra takze to ani vykonove není potřeba"

S týmto nesúhlasím. Sú určité úlohy, ktoré viac vyhovujú GPU a na ktoré sa CPU nebude nikdy chytať (ak chceš udržať mieru detailu na vyššej úrovni). To sa týka rôznych časticových systémov (reprezentovaných aj cez APEX Turbulence) či detailnej simulácii šiat (detailnosť zobrazenia, zobrazenie na všetky postavy, nie len na jednu či pár zvolených, reakcia látok na prechod objektov, výbuchy a silové polia či na vietor). CPU ti na to stačiť nebude.

"Sebevedoma firma, ktera se neboji o vykon svych grafik to urcite dela. Ta co vi, ze by vykonem neprorazila hleda jine zpusoby"

Toto je len domnienka, ale ok. Tiež názor, ktorý nezdieľam v kontexte v akom ho myslíš (a teda že NVIDIA nemá výkonovo grafiky na úrovni konkurencie a musí sa naňu takto umelo doťahovať).

"Ta iniciativa OpenWorks jakožto vůbec téma předpokládá, že GameWorks nějaké neblahé dopady má, jinak by o tom neuvažovali."

A čo ak ide o marketing, aby vyzerali, že majú alternatívu ku konkurenčnému riešeniu? Ak by to mysleli vážne a obávali sa zlého dopadu, tak by sa do toho opreli a niečo by vyvinuli sami ale to sa AMD aspoň podľa tohto článku nechystá.

Ja by som povedal, že je to úplne rovnaká situácia aká tu bola s AMD + GPU Havok, AMD + Bullet či AMD + FreeSync. Ide iba o to mať akúsi alternatívu, aby ľudia zostali v povedomí, že s GPU od NVIDIA nezískajú nič navyše. Realita je nakoniec taká, že nikdy reálne žiadnu konkurenciu AMD k PhysX nevytvorilo a s OpenWorks to opäť vyzerá tak ako píše SamanCZ vyššie. Oni len niečo poskytnú a chcú nechať na iných, nech to celé vytvoria. To, že zrejme ani za 2 či viac rokov nič nebude nevadí, ale OpenWorks bude vnímaná ako alternatíva ku GameWorks. Oveľa väčšia je pravdepodobnosť, že to skončí mimo záujmu rovnako ako GPU Havok či Bullet. Keby aspoň boli viac kreatívny a miesto nezmyselného OpenWorks by to prezentovali nejak inak. Kým to nebude mať reálne výsledky, je to iba marketing. Škoda, že vždy začína očierňovaním konkurencie. Aspoň že u FreeSync to vyzerá, že niečo dotiahli do konca (aj keď si opäť všimnite, že je to skôr kvôli tomu, že nemuseli vyvinúť absolútne nič).

K tomu Watch Dogs. Nie je nikomu zvláštne to, že táto hra nevyužíva nič z GameWorks čo by mohlo poškodiť výkon AMD grafík? Naozaj stačí iba vyhlásiť od AMD, že to tak je? Bez toho aby vysvetlili ako? To, že ide o uzavretý kód neznamená, že je to zlý kód. To nie je žiadny dôkaz. Hlavne keď to dokazujú na hre kde im to logicky nemá ako uškodiť. čo budú robiť keď príde Witcher 3 kde bude GameWorks využitý oveľa viac? A čuduj sa svete opäť prevažne s modulmi, ktoré budú bežať všetkým (výnimka bude iba GPU PhysX)?

S prepáčením čo sú zasa toto za bláboly:

"Nedávno jsme na internetu mohli sledovat kontroverze kolem špatného výkonu Radeonů ve hře Watch_Dogs, za což mají mít zodpovědnost knihovny GameWorks, které vývojářům her dodává Nvidia. Ty jsou logicky vyvíjeny jen se zřetelem na karty GeForce, a vzhledem ke své uzavřené povaze nefungují zrovna transparentně. Výsledkem může být, že hra naprogramovaná pomocí GameWorks poběží na kartách Nvidie rychleji, ale na konkurenčních grafikách naopak podstatně pomaleji a vývojáři ovladačů budou mít potíže propady výkonu napravit."

Prosím autora o vysvetlenie ako HBAO+ an TXAA negatívne ovplyvňuje výkon grafík od AMD. Inak si už neviem vysvetliť toto kolečkové omieľanie evidentných klamstiev. Keby sa na túto negatívnu kampaň aspoň použila hra kde by GameWorks naozaj niečo mohlo ovplyvniť v neprospech AMD, ale Watch Dogs je naozaj mimo a je oveľa viac pravdepodobnejšie, že ide o umelo vyvolanú anti kampaň zo strany AMD. Vieme predsa že TXAA na grafikách od AMD nechodí a teda nemá ako ich výkon ovplyvniť. Tak prosím o vykonanie testov zo zapnutým HBAO+ a porovnať aký to má dopad na výkon u NV a u AMD. Potom by sme sa mohli baviť o tom, že niečo nie je v poriadku. Čo ale všetci vieme ukáže skôr pravý opak. HBAO+ bolo použité aj v iných hrách predtým a nikde problémy AMD grafikám nerobilo.

Funguje na úrovni implementácie. Príklad: simulácia šiat v Mafii 2. Pár mesiacov po vydaní hry sa simulácia šiat zrýchlila ak si dobre pamätám 4násobne. To bolo ale stále ešte v rámci SDK 2.x. V rámci prerábky celého SDK (ktorá sa zoficiálnila jeho verziou 3.0 v roku 2010) sa aj simulácia šiat kompletne prerobila a zmenil sa aj postup jej riešenia (http://physxinfo.com/news/10949/gdc-2013-physx-3-cloth-solver-will-add-s...). Si predstav, že na niečo také sa musí najskôr presne popísať metodika na základe ktorej to bude pracovať. Potom sa musí určiť akým spôsobom bude táto metodika implementovaná. Toto nejaký čas trvá. NVIDIA venovala prvé roky hlavne prerábke PhysX SDK a to väčšinou za behu na základe toho čo vývojári hier od nich požadovali (vývojári hier požadovali hlavne moduly APEX Clothing a APEX Destruction a ich vyladenie a zlepšenie bol teda pre NVIDIu hlavný ciel niekoľko rokov). Posledné 2 roky sa hlavne pracuje už na ďalšej nadstavbe ako je Flex či real time fracturing. Keď vyšiel PhysX SDK 3.0 v roku 2010, tak obsahoval iba časť funkcionality zo starého SDK. Až verzia 3.2 v roku 2012 sa obsahom dotiahol na SDK 2.x.

To čomu ty hovoríš že je na papíře, je už implementácia na úrovni SDK (a teda už hotová práca). Ostatné je už na vývojároch a aj na NVIDIi ako sa s nimi dohodne.

Ešte sa vrátim k Mafii 2. Špecifikom z hladiska výkonu GPU PhysX-u pre Mafiu II bola simulácia šiat. Tá sa totiž na GPU spustila iba v prípade, že mal človek dedikovanú kartu len na PhysX. Ak si aj mal zapnutý APEX v hre na high, a mal si iba jednu GPU GTX460, tak ti simuláciu šiat aj tak počítal CPU a to bola brzda výkonu (teraz by to už bolo oveľa lepšie s novým SDK). Viď http://physxinfo.com/news/3892/mafia-ii-is-not-using-gpu-for-physx-cloth.... Každopádne sa dala simulácia šiat obmedziť iba na hlavnú postavu a potom už žiadny problém s prepadmi výkonu nebol.

Zaujímavé interview s vývojármi NVIDie ohľadom implementácie PhysXu je tu:
http://physxinfo.com/news/7165/getting-gpu-physx-effects-into-games-inte...

Tu sú linky na výskumy aké sa v NVIDIi robia kvôli fyzikálnym simuláciám (iba malá časť):
http://physxinfo.com/news/10572/physx-research-position-based-methods-fo...
http://physxinfo.com/news/10296/physx-research-fast-simulation-on-inexte...
http://physxinfo.com/news/9098/physx-research-mass-splitting-for-jitter-...
http://physxinfo.com/news/9022/physx-research-mass-conversing-liquids-an...
http://physxinfo.com/news/6621/physx-research-oriented-particles-solver-...

Ako vidíš je toho dosť a aj keď sa to nemusí zdať, vývoj PhysXu po implementačnej stránke postupuje ďalej (či už z hladiska nových features alebo efektivity z pohľadu výkonu). Nie všetko z hore uvedeného sa aj reálne implementuje, ale všetko stojí dosť práce a času (a to nehovorím o peniazoch).

Z hľadiska využívania sa môže PhysX provnávať iba s Havokom. A ani ten nie je v každej druhej hre. Nehovorí to ale nič o tom ako je Havok dobrý alebo efektívny. To isté platí aj o PhysX. Jeho GPU varianta je očividne zcela závislá od NVIDIe, ktorá ho tlačí dopredu aj z pohľadu využívania. Či je to ale iba kvôli tomu, že je GPU PhysX obmedzený iba na grafiky NVIDIe je otázne. Havok s Bulletom majú tiež GPU variantu implementovanú v OpenCL, ktorá funguje na všetkých grafikách podporujúcich OpenCL bez ohľadu na výrobcu. A pritom ich nikto nevyužíva. Takže to očividne nie je iba o obmedzení na výrobcu GPU.

GPU PhysX tiež prechádza vývojom a tiež sa zlepšuje na efektivite. Napríklad pri simulácii šiat sa jeho výkon oproti starej verzii tiež zlepšil. Staré aj nové Metro stále využívalo staré PhysX SDK. Na mojej konfigurácii (GTX 780 + GTX 460 (čiste na PhysX)) tebou popisované problémy nepociťujem. Sledujem ale zo záujmu vyťaženie GPU na PhysX. Pri Metre 2033 sa GTX460 moc nevyťažovala (tak do 5%). A to ani nehovorím o tom, že táto hra je miestami nevyladená kde som aj s GTX780 mal 20 FPS tam, kde nič k videniu poriadne nebolo. Stačilo sa pozrieť iným smerom a hneď FPS radikálne poskočili (a toto s PhysXom nemalo nič spoločné). Pri Metre Last Light už to bolo iné a niekedy sa GTX460 dostávala aj na 50-60%. Bolo to ale v scénach kde sa napríklad počítala hmla a interakcia pohybu každého objektu s ňou. Takže tam by som to videl opodstatnené. Každopádne Witcher 3 by mal viac využívať GPU PhysX a hlavne novú verziu jeho SDK. Budeme môcť porovnať či a ako sa zlepšenie SDK prejaví vo vizuále hry alebo na výkone (stále totiž môže byť ušetrený výkon napríklad simulácie šiat vďaka optimalizáciám použitý na ich detailnejšie spracovanie).

Ok tak to skúsim aj keď kvôli predsudkom aké máš neviem či to bude mať zmysel.

PhysX sa využíva v hrách viac ako ktorékoľvek iné fyzikálne API. Áno viac ako Havok a áno určite viac ako Bullet. O iných fyzikálnych API ani nemá zmysel uvažovať. Žiadne iné fyzikálne API ešte nebolo v hrách použité v GPU akcelerácii. Takže vyhlásenie typu "jsou lepší technologie na fyziku, které tak radikálně nezatěžují GPU jako skvělý physX" je úplne mimo. Je jasné, že ktorékoľvek iné fyzikálne API nezaťažuje GPU keďže ho nevyužíva. PhysX sa inak hlavne využíva iba základný a teda je akcelerovaný cez CPU, kde je úplne rovnocenný s inými fyzikálnymi API. Prosím neargumentuj neoptimalizáciou na viacjadrové CPU ani používaním starých inštrukčných sád. To už totiž neplatí niekoľko rokov. Odkedy prešiel PhysX k verzii 3.x. Môžeš si pozrieť testy, ktoré ukazujú akým vývojom PhysX prešiel v tomto článku:

http://www.codercorner.com/blog/?p=748

Máš tam aj zrovnanie s vtedy aktuálnou verziou Bulletu. Po implementačnej stránke prešiel PhysX dosť slušným vývojom (paralelne spolu s APEXom).

Využívanie GPU má svoje výhody. Aj keď s tým veľa ľudí bojuje a nechce tomu veriť, je GPU oveľa vhodnejšie na počítanie určitých fyzikálnych simulácií. Má totiž oveľa viac jednoduchých výpočtových jednotiek (jednoduchých z pohľadu CPU), ktoré ponúkajú oveľa väčšiu mieru multithreadingu. Takže napríklad časticové systémy (dym, voda,...) sa oveľa efektívnejšie počítajú na GPU ako na CPU. Samozrejme čím presnejšia má simulácia byť, tým náročnejšia je na výkon GPU. Preto sa robia v určitých veciach kompromisy. Napríklad simulovaná voda v Borderlands 2 nevyzerala tak dobre ako skriptovaná ale to je proste len začiatok (nevyzerala tak umelo a bolo proste vidieť že nejde o skript). Výhody real-time počítania simulácií oproti skriptom sú oveľa väčšie ako ich nároky na výkon. Objekty s takouto fyzikou totiž dokážu reagovať na podnety z okolia. Viď napríklad simulovaný dym v AC IV, ktorý reaguje na prechod postavou či na vietor. Toto na CPU nedosiahneš ani zďaleka v takej kvalite ako to ukázal PhysX v AC IV (a nielen tam). Takže áno. PhysX požaduje určitý výkon na GPU, ale nie je to len tak a zbytočné.

PhysX v starej verzii 2.x bol priamo integrovaný do herných engine-ov Unreal Engine 3 a Unity 4. Keď si všimneš väčšina hier stále vychádza na týchto starých engine-och. Potom aj každá hra, ktorá na nich stojí a podporuje GPU PhysX, využíva jeho starú variantu z pred 5tich rokov. Tým pádom nevyužíva viacero výhod, ktoré nové SDK podporuje. Takže z pohľadu používateľa sa môže zdať, že sa PhysX nepohol, ale to nie je pravda. PhysX je momentálne natívne podporovaný novými hernými engine-nami Unreal Engine 4 a Unity 5 v jeho najnovšej verzii. Každá hra, ktorá bude na týchto engine-och stáť a využije PhysX (či už v CPU alebo GPU variante) na tom bude lepšie už od základu. Či to vývojári využijú alebo nie, to je na nich.

Ešte napíšem niečo k používaniu PhysXu. Ako som už písal vyššie, nemôžeš len tak porovnávať využívanie GPU PhysX s inými API ako Havok či Bullet. CPU akcelerovaný PhysX je to čo je ekvivalentné k týmto API a je z nich využívaný najviac. Je to aj vďaka tomu, že je narozdiel od Havoku zadarmo a je k nemu rovnocenný. GPU PhysX sa momentálne nedá porovnávať so žiadnym fyzikálnym API, pretože žiadne iné grafiku na fyzikálne výpočty nevyužíva. Preto aj keby to boli 2 hry ročne, stále je to o 2 viac ako má na konte GPU Havok či GPU Bullet (dá sa na zálade toho tvrdiť, že je Havok či Bullet mŕtvy?). Momentálne je to inak už v priemere 5 hier ročne a teda tam, kde to bolo na začiatku. Porovnávať GPU PhysX celkovo s Havokom alebo Bulletom a na zálade toho tvrdiť, že je PhysX mŕtvy je úplne zcestné a skôr je to argument pre ľudí, ktorí tomu chcú veriť. Ak sa GPU PhysX prestane používať úplne, potom môžme tvrdiť, že GPU fyzika v podaní PhysX je mŕtva. To ale neplatí v čase, keď sa stále používa. TressFX sa použil v jednej hre z pred 2 rokov čo je teda oveľa menej ako GPU PhysX a nikde sa ndočítam, že je to mŕtva technológia.

Taktiež si je treba uvedomiť, že implementácia rôznych fyzikálnych simulácií (šaty, časticové systémy rôzneho typu či deštrukcia) si NVIDIA nerobí všetko sama u seba na kolene. Spolupracuje pri tom s vývojármi herných štúdií rovnako ako to urobilo AMD s Mantle či TressFX. To isté platí aj o GameWorks. Ale to už je iná téma na ďalšiu dlhú diskusiu.

Musím sa priznať, že už som celkom alergický na kategorické vyhlásenia typu "PhysX je mŕtvy" alebo "neposúva sa dopredu" či "je k ničomu". PhysX je úplne rovnaké fyzikálne API ako každé iné s možnosťami navyše, ktoré sa vďaka NVIDIi aj reálne využívajú. Načo je podpora GPU akcelerácie Havoku či Bulletu keď ich nikto nevyužíva? Otázka je, prečo majú ľudia také vysoké nároky na PhysX a také nízke na iné API. Prečo im nevadí, že ani v hrách kde sa PhysX nevyužíva, neovplyvňuje fyzika gameplay? Prečo sú spokojní so skriptami namiesto simulácií? Na to si už asi musí odpovedať každý sám. PhysX tiež nie je dokonalý, ale v jeho GPU akcelerovaná varianta nám ponúkla k videniu v hrách veci, ktoré nikto iný zatiaľ nepriniesol. Takže na aké iné lepšie "technológie" na fyziku sa odvolávaš?

Páči sa mi stránkovanie diskusie. Len by sa pri prepnutí na inú stránku mohla stránka automaticky posunúť na začiatok časti s diskusiou.

Bavíte sa zrejme každý o niečom inom. Ty o profesionálnom využití a Maudit o hrách. Ja som ale zvedavý na teseláciu kde tvrdíš, že to bolo naopak ako hovorí Maudit. Ja si tiež pamätám, že NVIDIA GPU zvládali vyššie stupne teselácie citeľne lepšie ako konkurencia. Miestami to NVIDIA využívala aj v hrách a kvôli tomu AMD cez ovládače stupeň teselácie umelo znižovalo, aby jej karty nevyzerali zle. Teraz je to už myslím vyrovnané, ale začiatky si pamätám presne ako Maudit.

Nevieš o PhysX absolútne nič. Ale škoda rečí. Nemá zmysel toto vysvetľovať niekomu kto verí istému reddaktorovi.

Hovorí sa, že PhysX sa má do hry dodať v niekjtorom z budúcich patchov. Či ale GPU PhysX je otázne. Celkovo je to ale skôr kačica. BTW tu je celkom zaujímavý spôsob ako hru vytuniť:

http://www.dsogaming.com/news/watch_dogs-modders-aiming-for-e3-2012-visu...

Sám som to neskúšal. Hru som zatiaľ nekúpil.

Celkovo nie je problém používať 2 fyzikálne API v jednej hre. Ak je naozaj použitý Havok v AC IV, tak je tam v tandeme s PhysX. Nie je to prvý ani posledný krát. Inak myslím, že Mauditova poznámka ku GPU PhysX sa nevzťahovala na Watch Dogs ale všeobecne. Tiež si myslím, že by bolo super urobiť aj testy so zapnutými NV features. Jednak tými čo idú aj na konkurenčných GPU a aj samostatne na NV grafikách pre tie, ktoré sú vendor lock. Boli by to zaujímavé porovnávania. Ale medzi ľudmi to asi nebude žiadané v dostatočnom merítku aby stálo venovať sa testom dlhšie kvôli NV GameWorks.

"Knihovny Nvidia GameWorks nejsou vestavěné do UE4. Engine je dodáván s PhysXem."

Čo som pozeral vo feature-och pre UE4, našiel som z GameWorks iba integráciu APEXu (čo z hladiska rozsahu ale nie je málo). Nič také ako to čo sa ešte okrem PhysXu používa ako TXAA či HBAO+ a pod. Sám mám licencovaný pre zábavu UE4. Veľa som sa s tým ešte nestihol pohrať, ale nenatrafil som pri tom na nič z GameWorks. To sú moje skúsenosti. :-)

Super test. Vďaka.

"Fakt je ten, že výkon Radeonů ve všech hrách s GameWorks není žádná hitparáda "

Väčšina hier s GW využíva maximálne HBAO+ a TXAA tak ako Watch Dogs. Ako tieto 2 technológie ovplyvňujú výkon AMD GPU? Aký výkon by mali mať a o koľko sú úkrátené? Nepostrehol som extrémne výkyvy vo výkonoch už dávno. Môžete napísať príklady takých hier, aké sú v nich výsledky a aké by mali podľa vás byť? Čo by mal UBISOFT z toho keby sa pripravoval o zákazníkov takým pochybným prístupom ako že by ignoroval AMD vo vo vlastnom kóde? Boli by blázni. Nedostali by sa tam kde sú keby rozmýšľali takto krátkozrako.

A veľa ľudí toto interpretuje tiež ako NVIDIA only. Ja viem presne ako to spomínaný autor myslel. Presne tak ako som uviedol. Dokázal to inými "myšlienkami" okolo. :-)

Môžte dať jeden príklad kde by bolo dokázané, že použitie GameWorks má negatívny vplyv na výkon grafík od AMD? Všetko čo je v tomto článku a aj na Forbesu sú len špekulácie. Zaujímavý je citát, ktorý ste použil: So a partner studio like Ubisoft can suggest or write enhancements to the GameWorks libraries. A teraz mi povedzte čo by mal Ubisoft z toho keby zámerne upravoval GW tak, aby citeľne poškodzoval výkon na grafikách od AMD? Nechcú snáď hru predávať všetkým? NVIDIA by takým krokom tiež poškodila hlavne seba. Ako by sa na ňu pozerali vývojári hier keby zistili, že má v kóde bomby špeciálne proti konkurencii? Kto by s nimi potom chcel spolupracovať? Je to stále dokola to isté. Rovnako sa podobným štýlom urážal TWIMTBP. S rovnakými argumentami, ktoré nemajú žiadnu logiku. Len samé konšpiračné teórie.

Stránky

Reklama
Reklama