Nástrahy inteligentní domácnosti pohledem právníka | Marwick.cz
Marwick.cz

Nástrahy inteligentní domácnosti pohledem právníka

Právo 3.1.2023 Martin Čapek, Gabriela Blahoudková
Nástrahy inteligentní domácnosti pohledem právníka

Kdo odpovídá za škodu způsobenou umělou inteligencí? Výrobce, majitel přístroje, nebo dodavatel dat? Také tento hlavolam zkouší vyřešit Evropská unie.

Je běžné pondělí. Chytré hodinky na základě monitoringu kvality spánku upozorňují, že je čas vstávat do práce. S hodinkami nesouhlasíte a zůstáváte v posteli. Proto se k hodinkám o 15 minut později přidají i chytré žaluzie. Reagují na aktuální množství světla a automaticky se roztahují. Zatímco se zvedáte z postele, káva v chytrém kávovaru se začíná sama připravovat. Do kuchyně již kráčíte po vyhřáté podlaze, kterou inteligentní termostat ohřál na teplotu odpovídající té tělesné. Než opustíte byt, pračka a vysavač si nastaví samospuštění. Usedáte do elektrického vozu, který se na povel „do práce“ rozjede směrem do centra.

Ještě před pár lety by tento příběh zněl mnohým jako pohádka budoucnosti. Z pohádky se však pomalu stává každodenní skutečnost, snad s výjimkou plně autonomních aut.

Když se inteligentní přístroj přepočítá   
Pod pojmem „umělá inteligence“ si nepředstavujme jen chodící roboty s lidskými konturami nebo samořídící vozy. Umělá inteligence má mnoho podob. Lze ji najít na sociálních sítích, v mobilu nebo právě v „chytré domácnosti“. V ní na první pohled běžné přístroje sbírají o nájemnících ohromné množství dat. Ta následně zpracovávají složité programy (algoritmy), které se učí přizpůsobovat potřebám nájemníků. Alespoň částečně „chytrá“ je pravděpodobně už velká část dnešních domácností.

Doménou umělé inteligence se čím dál častěji stává vytápění nebo úklid. Proto se rozšiřuje používání inteligentních termostatů. Ty během roku zaznamenávají venkovní i vnitřní teploty a spotřebu energií. Vyhodnocují, ve kterých částech domu a v jaké době nájemník preferuje teplo nebo chládek. Nechají-li se v automatickém režimu, nastaví termostaty veškeré vytápění tak, aby co nejvíc vyhovovalo potřebám nájemníků a zároveň minimalizovalo spotřebu energie.

Jednoho dne se ale termostat přepočítá. Rozpálí kotel i trubky natolik, že dům zachvátí požár. Rázem se z idylky autonomní domácnosti stává horor. Kdo potom za chybu termostatu a způsobenou škodu odpovídá?  

Rozuzlení této otázky nemusí být vůbec jednoduché, a to z několika důvodů. Tím nejvýznamnějším je autonomie termostatu či jiného přístroje, resp. jeho softwaru. Ten totiž není naprogramován tak, aby vykonával jen jednu stálou činnost. Má se v různých úkolech sám zdokonalovat v reakci na data zvnějšku. Cílem je, aby fungoval autonomně, tedy nezávisle na svém tvůrci. V řeči programátorů to znamená, že si takový přístroj sám sobě pořád píše počítačový kód a učí se podle vlastních vzorců.

Způsobí-li samoučící přístroj škodu, je v naprosté většině případů obtížné rozklíčovat, proč se zachoval tak či onak. Nehraje přitom roli, zda je tím přístrojem termostat, kávovar, lednička nebo dron.

Odpovědnost bez ohledu na zavinění
Způsobí-li samoučící přístroj škodu, je v naprosté většině případů obtížné rozklíčovat, proč se zachoval tak či onak. Nehraje přitom roli, zda je tím přístrojem termostat, kávovar, lednička nebo dron. Na vině mohou být vždy špatná vstupní data i vadný algoritmus, s jehož pomocí se přístroj učí. Vyloučit nelze ani (konstrukční) chybu výrobce nebo nevhodnou manipulaci s přístrojem ze strany uživatelů.

Proto je a bude těžké určit, komu a v jaké míře lapsus přístroje přičíst. Jeho fungování totiž často ovlivňuje řada osob a faktorů. Velký význam má ale pokaždé kvalita dodávaných dat. Ta u termostatu závisí i na dobrém provozu venkovních teplotních čidel, která majitel termostatu neovlivní.

Odpovědnostní pravidla zakotvená v současném právním řádu nevyhovují specifikům oblasti umělé inteligence. Ze stávajících pravidel je přesto nutné vycházet. Například na škodu způsobenou při poskytování služeb s užitím umělé inteligence by bylo možné vztáhnout úpravu odpovědnosti za škodu způsobenou věcí. Na škodu vzniklou při využívání přístroje s umělou inteligencí by zase mohla být aplikovatelná ustanovení o odpovědnosti za škodu způsobenou vadou věci movité nebo odpovědnosti za škodu z provozní činnosti. U autonomních vozidel by pravděpodobně přicházel v úvahu platný režim odpovědnosti provozovatele vozidla.

Ani při užití stávajících pravidel ale nemizí obtížnost prokazování viny. Uživatel by se často ocitl v situaci, kdy by postrádal doklady, že pohroma vznikla například v důsledku nekvalitních dat nebo chybou v algoritmu. Problém dokazování by mohl být do budoucna překlenut konstrukcí takzvané objektivní odpovědnosti, tedy odpovědnosti bez ohledu na zavinění. Tam, kde se tato přísná odpovědnost uplatní, není nutné při vymáhání náhrady škody prokazovat zavinění. Již nyní se objektivní odpovědnost používá třeba v případě odpovědnosti provozovatele vozidla.

Umělá inteligence a odpovědnost v souvislosti s jejím využitím je horkým tématem v celé EU. Unijní instituce už přišly s různými úvahami. Důraz kladou na režim objektivní odpovědnosti a myšlenku povinného pojištění.

EU zvažuje i povinné pojištění 
Umělá inteligence a otázka odpovědnosti v souvislosti s jejím využitím je horkým tématem v celé Evropské unii. Unijní instituce už přišly s různými úvahami. Důraz kladou na zmíněný režim objektivní odpovědnosti a také na myšlenku povinného pojištění. Pohrávají si i s možností zavedení systému protokolování, které by mělo usnadnit dokazování příčiny vzniku škody. Experti EU pracují také s konceptem řízení rizik a tomu odpovídající mírou regulace.

Kategorizace jednotlivých systémů umělé inteligence dle míry rizika, kterou jejich užití představuje, se objevuje i v návrhu nařízení o umělé inteligenci. Nařízení má upravovat jakékoliv využívání technologií umělé inteligence v EU. Některé technologie chce zakázat, například ty umožňující rozdělovat občany na skupiny s různým „sociálním ratingem“. Vedle tohoto návrhu nařízení se v EU chystá i norma, která by měla přizpůsobit pravidla občanskoprávní odpovědnosti tak, aby lépe vyhovovala digitální době.

Ať už budou pravidla pro odpovědnost za škodu způsobenou umělou inteligencí vypadat jakkoliv, jedno je jisté. S ohledem na složitost a různorodost aplikací a systémů umělé inteligence nepůjde o jeden všespásný paragraf, ale spíše o sérii pravidel, která budou vycházet z těch stávajících. Budou je dále upravovat tak, aby se dala použít na případy, se kterými se právo dosud nesetkávalo. Jejich primárním cílem by mělo být, aby se v souvislosti s využíváním umělé inteligence ve všech státech EU zvýšila právní jistota.

Nová pravidla by tak měla především zaručit, aby na jednotném evropském trhu se systémy umělé inteligence nevznikaly zásadní rozdíly v odpovědnostním režimu v důsledku odlišných národních úprav. Míra (ne)jistoty by se totiž například skrze rozdílnou výši pojištění a náklady na poradenské služby propsala do cen produktů a služeb využívajících umělou inteligenci. To by zkomplikovalo život jak spotřebitelům, tak i výrobcům a prodejcům.  

Snad se tedy již brzy dočkáme jasných pravidel odpovídajících technologiím dneška i zítřka. Když pak někomu vyhoří dům kvůli rozmarům inteligentního termostatu, bude mít větší jistotu, po kom náhradu škody vymáhat.

 

Martin Čapek
advokát KPMG Legal, specialista na právo informačních technologií a ochrany dat  

Gabriela Blahoudková
advokátní koncipientka KPMG Legal

Martin Čapek, Gabriela Blahoudková

Google utržil další ránu za 2,42 mld. eur

Google utržil další ránu za 2,42 mld. eur

Společnost Google a její mateřská společnost Alphabet prohrály další spor s Evropskou komisí. Pokutu udělenou za zneužívání dominantního postavení na trhu potvrdil Tribunál Soudního dvora Evropské unie. Snaha Googlu zvrátit rozhodnutí Komise, které nejen že ukládá rekordní pokutu, ale zároveň naznačuje směr pro budoucí rozhodovací praxi, tak vyšla naprázdno.
Ladislav Karas: Pro přivýdělek ve stejném oboru je potřeba souhlas zaměstnavatele

Ladislav Karas: Pro přivýdělek ve stejném oboru je potřeba souhlas zaměstnavatele

Jak sladit přivýdělek s pracovní dobou je jedna věc. Jak ho sladit se zákoníkem práce, radí Ladislav Karas, advokát KPMG Legal.
Komise navrhla ambiciózní reformu digitálního prostoru

Komise navrhla ambiciózní reformu digitálního prostoru

Evropská komise chystá nová pravidla pro digitální služby. Měla by přinést největší změny od roku 2000.
EDPB a jeho „návod“ pro datové přenosy po rozhodnutí Schrems II

EDPB a jeho „návod“ pro datové přenosy po rozhodnutí Schrems II

V listopadu 2020 vydal Evropský sbor pro ochranu osobních údajů (European Data Protection Board – EDPB) dlouho očekávaná doporučení ohledně přenosu osobních údajů mimo EU. Navazují na přelomové rozhodnutí Soudního dvora EU známé jako „Schrems II (C-311/18)“.
Amazon opět v hledáčku Komise – tentokrát kvůli využití dat obchodníků na Marketplace

Amazon opět v hledáčku Komise – tentokrát kvůli využití dat obchodníků na Marketplace

Evropská komise informovala největšího internetového prodejce Amazon o svém předběžném zjištění o porušení antimonopolních pravidel EU. Údajně měl narušit hospodářskou soutěž na maloobchodních trzích provozovaných online. 
Návrh nařízení o správě dat unikl před zveřejněním a sklidil kritiku

Návrh nařízení o správě dat unikl před zveřejněním a sklidil kritiku

Podle uniklého návrhu je cílem vytvoření dobré infrastruktury pro sdílení dat, a přinést tak EU „digitální suverenitu“. 
Evropská regulace AI na obzoru

Evropská regulace AI na obzoru

Evropský parlament hlasoval v říjnu o návrzích pravidel pro umělou inteligenci (AI). Europoslanci přijali Etický rámec, zprávu o právech k duševnímu vlastnictví a především předběžný návrh nařízení o odpovědnosti za provoz systémů AI.
Bude regulace umělé inteligence následovat GDPR?

Bude regulace umělé inteligence následovat GDPR?

Evropská unie vydala rámcový dokument týkající se etických aspektů umělé inteligence (AI), robotiky a souvisejících technologií. Přiklání se v něm k přísné regulaci.