Kudy povede další vývoj umělé inteligence? A bude etický?

„Inteligentní svět, nedělitelná komunita.“ To bylo heslo konference World Artificial Intelligence Conference,  která se právě konala v Šanghaji – kvůli koroně jako hybridní událost s analogovými panelovými diskusemi a virtuálními klíčovými poznámkami.

Zakladatel Tesla Elon Musk ve videozprávě oznámil, že automobilka se chystá udělat průlom v autonomní jízdě, zakladatel Alibaba Jack Ma se objevil na pódiu jako hologram a vyzval lidi k větší pokoře. Koronavirová pandemie urychlila zavedení umělé inteligence v mnoha průmyslových odvětvích a tento trend bude pokračovat: „Nemůžeme si o sobě tolik myslet,“ řekl Ma, „mnoho věcí je pro lidi velmi obtížné, ale pro stroje velmi snadné.“

Ve skutečnosti za nás algoritmy v každodenním digitálním životě dělají stále více rozhodnutí. Ovlivňují to, co vidíme na Instagramu, co najdeme na Googlu nebo nakoupíme na Amazonu. Portál Axios nedávno uvedl, že umělá inteligence by měla pomoci shromažďovat a vyhodnocovat případy korony – protože lidé budou schopni jen stěží zvládnout záplavu dat. Síla strojů však vede k otázce:

Jaká kritéria ve skutečnosti používají při rozhodování – a jakou roli v tom hraje etika?

Touto otázkou se zabývá také studie, která byla nedávno zveřejněna v časopise „Royal Society Open Science“. Není překvapením, že tým autorů vedený Nicholasem Bealem poukázal na to, že pokud je umělá inteligence naprogramována tak, aby dosáhla co největšího zisku, rozhodne se vždy pro neetickou strategii. To je fenomén, který vědci nazývají „princip neetické optimalizace“.

Podle Beale je však možné trénovat umělou inteligenci pro obecné dobro. V tom případě je ale třeba myslet na programování od konce. Nejprve se musí vyjmenovat ty strategie, které slibují největší zisk nebo návratnost – protože systém nejprve na ně zacílí. Tyto strategie pak musí být zkontrolovány, zda jsou etické či nikoli. Přitom je důležité dostat se do myšlení umělé inteligence a přistupovat k problémům tak, aby nežádoucí řešení byla od počátku vyloučena.

Svým způsobem leží zodpovědnost především na softwarových inženýrech, kteří tvoří programy podle svých představ. Pro etický rámec potřebují především cíl – protože pouze ti, kteří od počátku vědí, kam má cesta směřovat, se vydají správnou cestou.

Odborníci proto při dalším vývoji systémů umělé inteligence trvají na transparentnosti: „Vývojáři ve veřejných nebo soukromých oblastech by měli být schopni v případě pochybností své systémy dobře zdůvodnit,“ říká odbornice z Centra etické společnosti Kate Vredenburgh ze Stanfordské univerzity, “ pak by měli motivaci programovat morálně ospravedlnitelné algoritmy. “

Připravila Danuše Sieirng

Zanechte komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Instagram

Instagram has returned invalid data.

Sledujte nás!

Copyright © 2017 Ayurvedic Breakfast Všechna práva vyhrazena

Tyto internetové stránky používají soubory cookies. Cookies můžete zakázat v nastavení vašeho prohlížeče. Více informací.
Vytvořilo Jakub Vaněk Studio.

Napište nám e-mail na
PLANKVADRAT s.r.o., V sadech 4a, 160 00 Praha 6, IČO 60199318, DIČ CZ60199318

Zdravé články do e-mailu?

Odesláním osobních údajů dáváte souhlas se zpracováním osobních údajů pro potřeby marketingových aktivit společnosti PLANKVADRAT, s.r.o.

Formulář byl odeslán, děkujeme.