Jump to content
Co nového? Mé kurzy
Komunita:
Diskuze Sledované příspěvky Žebříčky

Diskuze k článku: Život tradera v Algarve: rok po té


Doporučené příspěvky

  • Odpovědí 81
  • Vytvořeno
  • Poslední

Nejaktivnější diskutující

Nejaktivnější diskutující

Publikované obrázky

Dovolím si nesouhlasit.
Paměť bude nevyužita. Výpočet bude prováděn procesorem a ne RAMkou. A tudíž ani na rychlosti pevného disku nezáleží. Záleží jen a jen na CPU.

Každopádně na DELL R910 jsem již odkazoval ;-)
Takže jsem rád, že je zde shoda názorů.





mvorisek Napsal:
-------------------------------------------------------
> Nejlepším řešením, pokud Vás limituje sw, je Dell
> server PowerEdge R910 se čtyřmi Intel Xeon
> procesory E7-8870. Server obsahuje 64 slotů pro
> paměti, které bych všechny osadil 16GB moduly.
> Pevný disk bych volil spíše klasický serverový,
> tj. 15k otáček.
>
> Uvedené řešení je sice finančně náročné, ale
> levnější než pronajímaný výpočetní výkon. Asi
> největším kladem celého systému by byla možnost
> nahrát zhruba 1TB tradingových dat přímo do
> paměti, ze které by šel vytvořit superrychlý disk
> - plně kompatibilní se všemi aplikacemi. I přes
> vynikající konfiguraci tento počítač nevyužijete
> naplno, ideální by bylo 4 - 8 výpočtů najednou.


Link to comment
Sdílet pomocí služby

Zdravím Vás Tomáši,

mám na Vás takový dotaz. Už delší dobu přemýšlím nad tím co v Portugalsku dělá Vaše přítelkyně. Čím se zabaví když Vy pracujete na burze? Má také nějakou práci, nebo se věnuje tradingu? Předpokládám že něco dělat musí protože rok jenom lenošit by bavilo málokoho.

Děkuji za odpověď

Link to comment
Sdílet pomocí služby

Zdravím všechny diskutující, Ohledně vylepšení výpočtů tu zaznělo mnoho. Pokud bych šel metodou síly, tedy koupit silnější stroj, tak ano, výkon neroste, ale neporoste lineárně, na rozdíl od ceny, která bych řekl poroste když ne exponenciálně, tak alespoň kvadraticky. :-) Tuto cestu bych bral dlouhodobě zavrhl. Využití superpočítačů a HPC (high performace computing) je určitě dobrý nápad. Jak zde bylo zmíněno třeba SGI (http://www.civ.cvut.cz/info/info.php?id=50 - z našich luhů a hájů), ale stejně jako v cloudu i zde jsou potřeba specielně upravené aplikace. Co se týče brute-force, tak tam samozřejmě se schopností paralelizace vedou mainframy, které jsou, ač to o nich koluje opak, v nižších výkonových konfiguracích cenou ne příliš odlišní od ceny papříklad pSystem (Power procesory a operační systém AIX), ale to už je řešení pro opravdu velký projekt a jako takové bych to pro začátek neuvažoval. vSphere od společnosti VMWare, je velice zajímavý virtualizační nástroj s dobrým uživatelským rozhraním pro ovládání, ale abyste mohl využít až 12 virtuálních jader je virtuálním stroji, potřebujete verzi alespoň Advance, kde licence na 1 procesor pro komerční použití začínají na nějakých 40-45 tis Kč (bez supportu, který alespoň první rok mít musíte). Při větších zakázkách jsou tam množstevní slevy, ale u 0.5 mil kč nečekejte zázraky. Počáteční investice do tohoto tedy nejsou úplně malé a to nepočítám HW. To samozřejmě jen v případě, že byste se vydal cestou vlastního řešení. Servery se dají pronajmout. Poskytovatelů je celkem dost. Existují i jiné virtualizační platformy (KVM, XEN...), které jsou levnější (nebo i zdarma), které jsou funkčností srovnatelné. CUDA je produkt nVidie, funguje jen na jejich kartách (pokud máte AMD, tak smůla, tam je potřeba CAL). Dalším je třeba i výše zmíněný OpenCL (průmyslový standard pro paralelní programování heterogenních počitačových systémů). Obojí je způsob použití paralelního programování, které bych v případě, že nechce svoje výpočty "dávat" z ruky (tzn. spouštět doma) a neinvestovat moc peněz, zaměřil. Ty nejlepší karty nabízejí za cenu okolo 15 tis. kč až 1024 jader pro CUDA výpočty. Zase je tu ale podmínka, že potřebujete specielně upravený program. Porovnání výkonu můžete vidět třeba na tomto obrázku . nVidia také dělá speciální stroje pro tyto výpočty. Cenově nevím jak na tom jsou, ale pokud to někoho zajímá, hledejte nVidia Tesla, popřípadě Tesla Fermi. Cloud computing. Spíše buzzword, než něco převratného. Není to nic co by tu již neexistovalo. Jen se to používá jinak. Obecně založeno na virtualizaci, účtování je podle spotřebovaných zdrojů a to buď časově (což je nejjednodušší), nebo podle spotřebovaného procesorového výkonu, spotřebované operační paměti a diskového prostoru, takže zaplatíte opravdu jen za to co spotřebujete, nikoliv za to, že počítač leží ladem. Amazon EC2 nebo T-Systems poskytují tzv. veřejný cloud (můžete si ho pronajmou). Amazon poskytuje i výpočetní výkon pro CUDA aplikace. Jedná se o tzv. IaaS (infrastructure as a service), což je prostě virtuální stroj stejně tak jak ho známe z VMWaru. Jsou i další formy cloud computingu (PaaS - např. Windows Azure a SaaS - např. Google Apps). Každé má trochu své odlišnosti. Je to určitě dobrá možnost, přesto

15840

Link to comment
Sdílet pomocí služby

Děkuji všem diskutujícím za podněty.

Po všem zde napsaném jsem bohužel došel k závěru, že pro běžného uživatele zřejmě neexistuje nějaké "user-friendly" řešení. K využití cloud bych zřejmě potřeboval vysoké programátorské zkušenosti a minimálně 3 vysoké školy :-), serverový hardware je skutečně velmi drahý, v porovnání s tím, kolik jsem zaplatil za svůj počítač. Myslím, že nakonec vše vyřeším maximálně nákupem druhého stejného počítače, jaký už mám, a vsadím spíše na inteligentní workflow, které si vždy mezi dva počítače rozvrhu (manuálně, na kusu papíru a s tužkou). Představa, že další měsíce a měsíce strávím nějakým nastavováním a experimentováním proč nefunguje toto nebo tamto je pro mě v konečném důsledku méně efektivní řešení, než dnes čekat o pár dnů více na ukončení výpočtu. A nebo si možná ještě rok počkám, počítám, že za rok by více jádrové procesory než pouhých 6 core mohly být na trhu.

Každopádně díky,

Link to comment
Sdílet pomocí služby

Zdravím všechny diskutující, Nejsem finančník, ale člověk spíše technického rázu, tak bych se vyjádřil k tomu o čem trochu něco vím. Zda je lepší koupit akce ČEZu nebo KB nechám na vás :-) Ohledně vylepšení výpočtů tu zaznělo mnoho. Pokud bych šel metodou síly, tedy koupit silnější stroj, tak ano, výkon roste, ale neporoste lineárně, na rozdíl od ceny, která bych řekl poroste když ne exponenciálně, tak alespoň kvadraticky. :-) Tuto cestu bych dlouhodobě zavrhl. Využití superpočítačů a HPC (high performace computing) je určitě dobrý nápad. Jak zde bylo zmíněno, tak třeba SGI, ale stejně jako v cloudu i zde jsou potřeba specielně upravené aplikace. Co se týče brute-force, tak tam samozřejmě se schopností paralelizace vedou mainframy, které jsou, ač to o nich koluje opak, v nižších výkonových konfiguracích cenou ne příliš odlišné od ceny papříklad pSystem (Power procesory a operační systém AIX), ale to už je řešení pro opravdu velký projekt a jako takové bych to pro začátek neuvažoval. vSphere od společnosti VMWare, je velice zajímavý virtualizační nástroj s dobrým uživatelským rozhraním pro ovládání, ale abyste mohl využít až 12 virtuálních jader na virtuálním stroji, potřebujete verzi alespoň Advance, kde licence na 1 procesor pro komerční použití začínají na nějakých 40-45 tis Kč (bez supportu, který alespoň první rok mít musíte). Při větších zakázkách jsou tam množstevní slevy, ale u 0.5 mil kč nečekejte zázraky. Počáteční investice do tohoto tedy nejsou úplně malé a to nepočítám HW. To samozřejmě jen v případě, že byste se vydal cestou vlastního řešení. Servery se dají pronajmout. Poskytovatelů je celkem dost. Existují i jiné virtualizační platformy (KVM, XEN...), které jsou levnější (nebo i zdarma) a funkčností srovnatelné. CUDA je produkt nVidie, funguje jen na jejich kartách (pokud máte AMD, tak smůla). Dalším je třeba i výše zmíněný OpenCL (průmyslový standard pro paralelní programování heterogenních počitačových systémů). Obojí je způsob použití paralelního programování, které bych v případě, že nechcete svoje výpočty "dávat" z ruky (tzn. spouštět doma) a neinvestovat moc peněz, zaměřil. Ty nejlepší karty nabízejí za cenu okolo 15 tis. kč až 1024 jader pro CUDA výpočty. Zase je tu ale podmínka, že potřebujete specielně upravený program. Porovnání výkonu můžete vidět třeba na priloženém obrázku. nVidia také dělá speciální stroje pro tyto výpočty. Cenově nevím jak na tom jsou, ale pokud to někoho zajímá, hledejte nVidia Tesla, popřípadě Tesla Fermi. Cloud computing. Spíše buzzword, než něco převratného. Není to nic co by tu již neexistovalo. Jen se to používá jinak. Obecně založeno na virtualizaci, účtování je podle spotřebovaných zdrojů a to buď časově (což je nejjednodušší), nebo podle spotřebovaného procesorového výkonu, spotřebované operační paměti a diskového prostoru, takže zaplatíte opravdu jen za to co spotřebujete, nikoliv za to, že počítač leží ladem. Amazon EC2 nebo T-Systems poskytují tzv. veřejný cloud (můžete si ho pronajmout). Amazon poskytuje i výpočetní výkon pro CUDA aplikace. Jedná se o tzv. IaaS (infrastructure as a service), což je prostě virtuální stroj stejně tak jak ho známe z VMWaru. Jsou i další formy cloud computingu (PaaS - např. Windows Azure a SaaS - např. Google Apps). Každé je o něčem jiném. Je to určitě dobrá možnost. Poběží tam i aplikace, která běží na vašem PC doma, ale je to opět metoda brute-force. Bez její úpravy to nemá moc významu. Distribuované výpočty. Např. zde zmíněný SETI (hledání mimozemšťanů) je rozdělení práce na více počítačů, které ji zpracovávají nezávisle na sobě a v centru se z toho pak složí výsledek. Pro to co řešení také možnost, ale nevím jak moc vhodná. Když budete stavět svůj výpočetního clusteru (u sebe doma na starších strojích za pár tis kč, postavených vedle sebe v jedné místnosti), zjistíte, že s rostoucím počtem strojů vám roste i management tohoto systému. Není to nic jednoduchého to zprovoznit, ale jde to. Samozřejmě je zase nutné pro to napsat aplikace. Tím bych řekl, že jsme tak nějak probrali technologie (snad jsem na nic co jsem tu zahlédl nezapomněl). Nic dalšího mě snad teď nenapadá (mainframe a pSystems bych zatím moc nerozebíral), takže teď bych zkusil něco ke struktuře programu. Samozřejmě asi nejdůležitější pro zrychlení je paralelizace procesů. Zaznělo tu, že se postupuje pomocí genetického algoritmu. Existují i paralelní genetické algoritmy (globální, hybridní, hrubě dělené...). Bohužel program FinWin neznám, nevím jak pracuje, takže výčet možností paralelních algoritmů je tak maximum co teď mohu říct. Z osobní zkušenosti je asi nejtěžší si ten genetický algoritmus nadefinovat a určit pravidla. Jeho naprogramování je pak jen přepisem těch pravidel (z vlastní zkušenosti se to dá za den:-)). Když už jsme u toho. Celkem moderní a nová metoda je řízení genetických algoritmů pomocí neuronových sítí. Tj. využití umělých neuronových sítí k řízení heuristik na nichž spočívají genetické algoritmy, a tím v podsatě k řízení těchto algoritmů. Umělé neuronové sítě jsou distribuované výpočetní systémy pokoušející se implementovat větší či menší část funkcionality biologických nervových soustav. Prostě umělý mozek. Některé jejich biologicky méně věrné druhy, mají pozoruhodné matematické vlastnosti - např. schopnost libovolně přesně aproximovat i velmi obecné funkce, či schopnost nacházet asociace v datech nebo shlukovat data na základě vnitřní podobnosti. Můžete se setkat s opačným postupem. Návrh neuronových sítí, pomocí genetických algoritmů, ale opačné řešení má jistě velkou perspektivu. Uvedl jsem to zde, neboť i vytvoření vlastního softwaru pro to co děláte zde padlo, tak jsem si říkal, že by to mohlo být zajímavé. Uff... Jsem se nějak rozepsal. :-) Kdyby k tomuto tématu byly nějaké dotazy, nebojte se je napsat. Pokusím se je zodpovědět. Tohle je docela zajímavé téma. Slyšel jsem o něm ale neznám nikoho, kdo by s tím dělal (v bussines sféře se moc nepohybuji). V případě zájmu o vývojem něčeho takového bych se rád zúčastnil, kdyby to bylo možné. Pěkný den Ondřej Žižka

15841

Link to comment
Sdílet pomocí služby

Zdravím všechny diskutující,

Nejsem finančník, ale člověk spíše technického rázu, tak bych se vyjádřil k tomu o čem trochu něco vím. Zda je lepší koupit akce ČEZu nebo KB nechám na vás :-) Ohledně vylepšení výpočtů tu zaznělo mnoho. Pokud bych šel metodou síly, tedy koupit silnější stroj, tak ano, výkon roste, ale neporoste lineárně, na rozdíl od ceny, která bych řekl poroste když ne exponenciálně, tak alespoň kvadraticky. :-) Tuto cestu bych dlouhodobě zavrhl.

Využití superpočítačů a HPC (high performace computing) je určitě dobrý nápad. Jak zde bylo zmíněno, tak třeba SGI, ale stejně jako v cloudu i zde jsou potřeba specielně upravené aplikace. Co se týče brute-force, tak tam samozřejmě se schopností paralelizace vedou mainframy, které jsou, ač to o nich koluje opak, v nižších výkonových konfiguracích cenou ne příliš odlišné od ceny papříklad pSystem (Power procesory a operační systém AIX), ale to už je řešení pro opravdu velký projekt a jako takové bych to pro začátek neuvažoval.

vSphere od společnosti VMWare, je velice zajímavý virtualizační nástroj s dobrým uživatelským rozhraním pro ovládání, ale abyste mohl využít až 12 virtuálních jader na virtuálním stroji, potřebujete verzi alespoň Advance, kde licence na 1 procesor pro komerční použití začínají na nějakých 40-45 tis Kč (bez supportu, který alespoň první rok mít musíte). Při větších zakázkách jsou tam množstevní slevy, ale u 0.5 mil kč nečekejte zázraky. Počáteční investice do tohoto tedy nejsou úplně malé a to nepočítám HW. To samozřejmě jen v případě, že byste se vydal cestou vlastního řešení. Servery se dají pronajmout. Poskytovatelů je celkem dost. Existují i jiné virtualizační platformy (KVM, XEN...), které jsou levnější (nebo i zdarma) a funkčností srovnatelné.

CUDA je produkt nVidie, funguje jen na jejich kartách (pokud máte AMD, tak smůla). Dalším je třeba i výše zmíněný OpenCL (průmyslový standard pro paralelní programování heterogenních počitačových systémů). Obojí je způsob použití paralelního programování, které bych v případě, že nechcete svoje výpočty "dávat" z ruky (tzn. spouštět doma) a neinvestovat moc peněz, zaměřil. Ty nejlepší karty nabízejí za cenu okolo 15 tis. kč až 1024 jader pro CUDA výpočty. Zase je tu ale podmínka, že potřebujete specielně upravený program. Porovnání výkonu můžete vidět třeba na přiloženém obrázku (doufám, že se mi to na poprvé povede vložit). nVidia také dělá speciální stroje pro tyto výpočty. Cenově nevím jak na tom jsou, ale pokud to někoho zajímá, hledejte nVidia Tesla, popřípadě Tesla Fermi.

Cloud computing. Spíše buzzword, než něco převratného. Není to nic co by tu již neexistovalo. Jen se to používá jinak. Obecně založeno na virtualizaci, účtování je podle spotřebovaných zdrojů a to buď časově (což je nejjednodušší), nebo podle spotřebovaného procesorového výkonu, spotřebované operační paměti a diskového prostoru, takže zaplatíte opravdu jen za to co spotřebujete, nikoliv za to, že počítač leží ladem. Amazon EC2 nebo T-Systems poskytují tzv. veřejný cloud (můžete si ho pronajmout). Amazon poskytuje i výpočetní výkon pro CUDA aplikace. Jedná se o tzv. IaaS (infrastructure as a service), což je prostě virtuální stroj stejně tak jak ho známe z VMWaru. Jsou i další formy cloud computingu (PaaS - např. Windows Azure a SaaS - např. Google Apps). Každé je o něčem jiném. Je to určitě dobrá možnost. Poběží tam i aplikace, která běží na vašem PC doma, ale je to opět metoda brute-force. Bez její úpravy to nemá moc významu.

Distribuované výpočty. Např. zde zmíněný SETI (hledání mimozemšťanů) je rozdělení práce na více počítačů, které ji zpracovávají nezávisle na sobě a v centru se z toho pak složí výsledek. Pro to co řešení také možnost, ale nevím jak moc vhodná. Když budete stavět svůj výpočetního clusteru (u sebe doma na starších strojích za pár tis kč, postavených vedle sebe v jedné místnosti), zjistíte, že s rostoucím počtem strojů vám roste i management tohoto systému. Není to nic jednoduchého to zprovoznit, ale jde to. Samozřejmě je zase nutné pro to napsat aplikace.

Tím bych řekl, že jsme tak nějak probrali technologie (snad jsem na nic co jsem tu zahlédl nezapomněl). Nic dalšího mě snad teď nenapadá (mainframe a pSystems bych zatím moc nerozebíral), takže teď bych zkusil něco ke struktuře programu.

Samozřejmě asi nejdůležitější pro zrychlení je paralelizace procesů. Zaznělo tu, že se postupuje pomocí genetického algoritmu. Existují i paralelní genetické algoritmy (globální, hybridní, hrubě dělené...). Bohužel program FinWin neznám, nevím jak pracuje, takže výčet možností paralelních algoritmů je tak maximum co teď mohu říct. Z osobní zkušenosti je asi nejtěžší si ten genetický algoritmus nadefinovat a určit pravidla. Jeho naprogramování je pak jen přepisem těch pravidel (z vlastní zkušenosti se to dá za den:-)).
Když už jsme u toho. Celkem moderní a nová metoda je řízení genetických algoritmů pomocí neuronových sítí. Tj. využití umělých neuronových sítí k řízení heuristik na nichž spočívají genetické algoritmy, a tím v podsatě k řízení těchto algoritmů.
Umělé neuronové sítě jsou distribuované výpočetní systémy pokoušející se implementovat větší či menší část funkcionality biologických nervových soustav. Prostě umělý mozek. Některé jejich biologicky méně věrné druhy, mají pozoruhodné matematické vlastnosti - např. schopnost libovolně přesně aproximovat i velmi obecné funkce, či schopnost nacházet asociace v datech nebo shlukovat data na základě vnitřní podobnosti.
Můžete se setkat s opačným postupem. Návrh neuronových sítí, pomocí genetických algoritmů, ale opačné řešení má jistě velkou perspektivu.
Uvedl jsem to zde, neboť i vytvoření vlastního softwaru pro to co děláte zde padlo, tak jsem si říkal, že by to mohlo být zajímavé.

Uff... Jsem se nějak rozepsal. :-) Kdyby k tomuto tématu byly nějaké dotazy, nebojte se je napsat. Pokusím se je zodpovědět.
Tohle je docela zajímavé téma. Slyšel jsem o něm ale neznám nikoho, kdo by s tím dělal (v bussines sféře se moc nepohybuji). V případě zájmu o vývojem něčeho takového bych se rád zúčastnil, kdyby to bylo možné.

Pěkný den

Ondřej Žižka

Link to comment
Sdílet pomocí služby

Škoda, že autor článku nepíše jaký SW používá. Je zde uvedena řada zajímavých řešení, ale bohužel nemůžou přesně mířit na žádost, kterou autor položil.

Pokud autor používá Adaptrade Builder www.financnik.cz/komodity/recenze-sw/adaptrade-builder.html, a patrně není důvod se domnívat, že to mu jinak, jádro odpovědi je přímo zde: www.adaptrade.com/Builder/Builderfaq.htm#Q9 .
První 2 odpovědi, jasně říkají, že aplikaci je 32-bitová, 64-bit se připravuje a že umí využít je jedno jádro procesoru. Pokud se má využít větší množství jader, je třeba spustit aplikaci tolikrát, kolik jader chci využít, jen pro každý běh je potřeba nastavit správné parametry.
Pro 32-bitovou verzi ještě platí, že maximálně využitelná RAM je necelých 4GB.

Link to comment
Sdílet pomocí služby

Kadik,

používám řadu SW. Je to trochu složitější, protože se jedná o sérii na sebe navazujících SW, které komunikují mezi sebou s pomocí knihoven. Ale pro primární optimalizaci s využitím GA používám jako základ MultiCharts, který zcela podporuje multi-core. Takže mně jde primárně o to, jak využít fakt, že MultiCharts má možnost využití libovolného počtu jáder - tj. zvýšit počet jáder, aniž bych musel něco složitě programovat (jako v případě cloud). Každé jádro navíc mně urychlí GA v MultiCharts.

Link to comment
Sdílet pomocí služby

Když to vše čtu, vidím pouze dvě varianty
1) pronájem výkonu na jednom výkonném serveru
2) koupě serveru
V obou případech by musel uživatel provést instalaci SW na serveru a zde spustit výpočty.

V případě varianty 1) a 2) je stejně nutné zjistit, jestli SW umí využít čtyři fyzické CPU (potom by daný počítač obsahoval dle typu procesoru 4x Xjader).
Pokud ANO, lze zvolit jednu ze dvou variant.

Dle ceny za pronájem a koupi bych se zohodl, kterou variantu pořídit.
Pokud bych kupoval server, koupil bych výše zmíněný DELL se čtyřmi procesorry.

Tím by bylo docíleno:
1) jednoduchost na instalaci
2) maximální výkon bez náročného programování
3) nic výkonějšího jsem nemohl pořídit (pokud bych nedělal cloudy)

Defacto když někdo nabízí 24jader, tak pravděpodobně nabízí sestavu se 4mi instalovanymi fyzickymi cpu Intel Xeon X5690 (jeden Intel Xeon X5690 má 6jader -> ( (4cpu)*(6jader/CPU) = 24jader celkem) ).

Nové XEONY řady 7 mají až 10jader / CPU. Tudíž jeden server může mít až 40jader.

EDIT:
PS: aby vemte v potaz, že existují fyzická jádra a logická jádra.
PS: jeden CPU XENON nejvyšší řady stoji až 10.000 USD
extrahardware.cnews.cz/desetijadrove-xeony-e7-opteronum-po-krku

Link to comment
Sdílet pomocí služby

Taky se trochu vrátím k článku a mám dotaz na Tomáše, nebo na kohokoliv jiného, kdo to zná.
Tomáš napsal:[ital] Náš život zde je zatím stále poměrně nezávislý na zdejším ekonomickém i politickém stavu,....[/ital]
Mě by zajímalo, jak to je s pojištěním zdravotním, sociálním a daněmi. Pokud tam žijí, jak to lze udělat, že jsou na Portugalské ekonomice a politice nezávislý? Podle mě, když tam žijí, tak musí sociální a zdravotní a daně platit v Portugalsku. A od toho se pak odvíjí výše daní, náhrady za nemoc, v budoucnu důchody atd. Takže z tohoto pohledu si myslím, že na ekonomickém a politickém stavu jsou pak docela hodně závislý. Chápu to správvně, nebo to je jinak?

Link to comment
Sdílet pomocí služby

Atari,

jelikož mám trvalé bydliště registrované stále v ČR, tak veškeré tyto povinnosti dále provádím v ČR. Takže jsem ekonomicky i politicky nezávislý na Portugalsku. Trvalé bydliště v Portugalsku si zřizovat nehodlám. Je tu na můj vkus příliš mnoho byrokracie (a to pocházím z ČR!). Mám tu pouze Fiscal Number, což je speciální číslo, se kterým tu můžete využívat určité výhody, přitom není nutné si zde zakládat firmu nebo mít trvalé bydliště. Jedinou podmínkou je mít zde ručitele (což já mám).

Link to comment
Sdílet pomocí služby


×
×
  • Vytvořit...