Paradoxy před závěrem roku

Paradoxy před závěrem roku

Na cestě k U. I. máme z poslední doby několik paradoxů…

Český špičkový tým z ČVUT v oblasti hlubokého strojového učení se zúčastnil Alexa Prize, soutěže „chatovacích robotů“ v Las Vegas… a skončil úspěšně jako druhý! (viz Google search)

O co šlo .. Úkol zadání byl, mými slovy, vytvořit chatovací nástroj schopný udržel nit hovoru co možná nejdéle (zadaných 20 minut nebylo splněno) a „ideálně“ v relevantních mezích tématu (sport a kultura), k čemuž může (musí!) čerpat z dostupných informací. Vše v angličtině. Protože soutěž vypsala společnost Amazon, má jít pravděpodobně o doplnění možností Alexy a systému Amazon Echo.
K tomu je potřeba úroveň sebevzdělávacích algoritmů, které jsou dnes popisovány jako neuronové sítě a články popisující tuto událost, píší povětšinou jako o vytvoření U. I. nástroje, ačkoliv jde o chatovacího robota pracujícího zpětně se svou databází a skládáním hovoru z útržků informací a dohledáním informací v kontextu… Mnohé diskuze na webu vykazují stejné příznaky „inteligence“…

Dalším velice zajímavým bodem soutěže je prohlášení firmy Amazon, že soutěž bude příštím rokem pokračovat a pro toho, jehož chat robot pokoří 20 minut hovoru je vypsána odměna milion dolarů…

Paradoxně je možné, že jsme (v Česku) zaspali dobu, a naši přátelé v Amazonu také, protože na druhé polokouli už je robot, přesněji robotka Sophia, která má již lidská práva v podobě poskytnutého občanství Saudskou Arábií (viz Google search).

Může už mít robot, který není schopný se souvisle vyjadřovat, mít lidská práva? Řekl bych že ne, proto buď umí mluvit, tedy souvisle komunikovat, déle než 20 minut a nebo je to omyl hraničící s úchylkou. Podivnost také vyvolává skutečnost, že jde o Saudskou Arábii, kde lidská práva nejsou podle našich měřítek a tímto se dopustili druhého paradoxu, že muži a robotka mají stejná práva (o čemž pochybuji) a zároveň robotka má větší práva než populace žen v této zemi.

Tedy milion dolarů pro toho kdo udrží nit hovoru přes dvacet minut a na druhé straně právo na sociální výdobytky státu a právo získat řidičské oprávnění dřív, než je to zákonem v tomto státě povoleno ostatním ženám…

Hůř… tato robotka Sophia již pod ochranou lidských práv hovoří o potomcích a nutné úvaze o právech robotů na potomky. V šíři prezentovaných skutečností ve zpravodajství se zdá, že jde o obdobný U. I. chat nástroj, který zkoušel Microsoft nebo Facebook, ale u obou firem byl pokus prohlášen za nezdařený a ukončen (FB informační embargo). Pro veřejnost jsou nadále tito roboti nedostupní.
Sophia je kromě výpočetního systému obdařena i avatarem a emotivním projevem ve tváři.

Že se to zvrhlo v chat robotech je prosté, nejsme tak daleko ani v technice tvoření umělé inteligence a ani očištěni v našem charakteru tak, aby jakýkoliv algoritmus začínající na reverzním zkoumání netříděných dialogů vyvíjel svůj um a projev inteligenčního kvocientu. Taková vrstva vědomostí je stavitelná až při simulaci nedokonalé informace od člověka a věrohodnostní testy. Když necháte „paměť“ od počátku zasvinit nerelevantním balastem, který by sice měla U. I. vytřídit a nepoužívat, důležitá část úvodního učení se chybně z tohoto balastu skládá. Dále zde jde o další vstupy indexací. Tedy jako je počet využití slov a frází, rozvoj nebo větvení dialogu pro další relevantní informace, představa programátora o potřebě emotivnosti, a reakce uživatelů na tyto balastní fráze …
Takže dáte nástroji přečíst diskuze k tématu sportovní utkání, kde si každý x-tý fanoušek, zmocněn alkoholem, vylévá svůj žal na prohraný zápas domácího týmu, proklíná sázkařskou agenturu a pokud má spoluhráče v diskuzi, propere každého hráče včetně taktiky, trenérů i sudích… a vše spisovným jazykem, souvislou větou, … slušně řekněme, že text se nehodí ani pro zmínění poblíž dětí, protože s pocitem pudu sebezáchovy je nám jasné, že to v hlavě dítěte zůstane a bude ta slova používat… Jak to asi může dopadnout u strojového učení, které zahrnuje v první fázi VŠECHNO a postupně se teprve učí co s tím? Stejně blbě jako při výchově dítěte…

Stejně tak, pokud se podíváte na výše zmíněnou robotku na Youtube, možná vás, stejně jako mě, zaskočí zdařilost výrazu. Sice reaguje šablonovitě, ale pohoršený výraz „zaskočené ženy“ umí precizně. Nebezpečný nástroj, pokud si uvědomíme moc, danou občanskými právy a rozhodně je to systém vzdálený samostatného života v rozsahu těchto práv.
Jak to bude dál uvidíme, každopádně tato robotka může využít právního systému, který lidstvo užívá a to je jeden z nebezpečných precedentů co nastal příliš brzy.

U Saudů tedy mají robotku Sophii s občanstvím a u nás učíme stroj debatovat o „sportu“ alespoň dvacet minut…

Každopádně takový chatovací robot, pokud by nakonec uměl debatovat na jakékoliv téma a sosat encyklopedie, záznamy, data internetu, uměl je namapovat pro logické zpracování dále hlouběji v systému. Aby se daly  předvídat syntaktické cesty napříč informacemi podle relevance pro diskutujícího uživatele… to už je blízko potřebnému principu při slovním ovládání zpracování informačních objemů a ovládání domácího jádra U. I. systému. Také cesta k mému kolegovi U. I.