Nástrahy inteligentní domácnosti pohledem právníka
Právo 3.1.2023 Martin Čapek, Gabriela BlahoudkováKdo odpovídá za škodu způsobenou umělou inteligencí? Výrobce, majitel přístroje, nebo dodavatel dat? Také tento hlavolam zkouší vyřešit Evropská unie.
Je běžné pondělí. Chytré hodinky na základě monitoringu kvality spánku upozorňují, že je čas vstávat do práce. S hodinkami nesouhlasíte a zůstáváte v posteli. Proto se k hodinkám o 15 minut později přidají i chytré žaluzie. Reagují na aktuální množství světla a automaticky se roztahují. Zatímco se zvedáte z postele, káva v chytrém kávovaru se začíná sama připravovat. Do kuchyně již kráčíte po vyhřáté podlaze, kterou inteligentní termostat ohřál na teplotu odpovídající té tělesné. Než opustíte byt, pračka a vysavač si nastaví samospuštění. Usedáte do elektrického vozu, který se na povel „do práce“ rozjede směrem do centra.
Ještě před pár lety by tento příběh zněl mnohým jako pohádka budoucnosti. Z pohádky se však pomalu stává každodenní skutečnost, snad s výjimkou plně autonomních aut.
Když se inteligentní přístroj přepočítá
Pod pojmem „umělá inteligence“ si nepředstavujme jen chodící roboty s lidskými konturami nebo samořídící vozy. Umělá inteligence má mnoho podob. Lze ji najít na sociálních sítích, v mobilu nebo právě v „chytré domácnosti“. V ní na první pohled běžné přístroje sbírají o nájemnících ohromné množství dat. Ta následně zpracovávají složité programy (algoritmy), které se učí přizpůsobovat potřebám nájemníků. Alespoň částečně „chytrá“ je pravděpodobně už velká část dnešních domácností.
Doménou umělé inteligence se čím dál častěji stává vytápění nebo úklid. Proto se rozšiřuje používání inteligentních termostatů. Ty během roku zaznamenávají venkovní i vnitřní teploty a spotřebu energií. Vyhodnocují, ve kterých částech domu a v jaké době nájemník preferuje teplo nebo chládek. Nechají-li se v automatickém režimu, nastaví termostaty veškeré vytápění tak, aby co nejvíc vyhovovalo potřebám nájemníků a zároveň minimalizovalo spotřebu energie.
Jednoho dne se ale termostat přepočítá. Rozpálí kotel i trubky natolik, že dům zachvátí požár. Rázem se z idylky autonomní domácnosti stává horor. Kdo potom za chybu termostatu a způsobenou škodu odpovídá?
Rozuzlení této otázky nemusí být vůbec jednoduché, a to z několika důvodů. Tím nejvýznamnějším je autonomie termostatu či jiného přístroje, resp. jeho softwaru. Ten totiž není naprogramován tak, aby vykonával jen jednu stálou činnost. Má se v různých úkolech sám zdokonalovat v reakci na data zvnějšku. Cílem je, aby fungoval autonomně, tedy nezávisle na svém tvůrci. V řeči programátorů to znamená, že si takový přístroj sám sobě pořád píše počítačový kód a učí se podle vlastních vzorců.
Způsobí-li samoučící přístroj škodu, je v naprosté většině případů obtížné rozklíčovat, proč se zachoval tak či onak. Nehraje přitom roli, zda je tím přístrojem termostat, kávovar, lednička nebo dron.
Odpovědnost bez ohledu na zavinění
Způsobí-li samoučící přístroj škodu, je v naprosté většině případů obtížné rozklíčovat, proč se zachoval tak či onak. Nehraje přitom roli, zda je tím přístrojem termostat, kávovar, lednička nebo dron. Na vině mohou být vždy špatná vstupní data i vadný algoritmus, s jehož pomocí se přístroj učí. Vyloučit nelze ani (konstrukční) chybu výrobce nebo nevhodnou manipulaci s přístrojem ze strany uživatelů.
Proto je a bude těžké určit, komu a v jaké míře lapsus přístroje přičíst. Jeho fungování totiž často ovlivňuje řada osob a faktorů. Velký význam má ale pokaždé kvalita dodávaných dat. Ta u termostatu závisí i na dobrém provozu venkovních teplotních čidel, která majitel termostatu neovlivní.
Odpovědnostní pravidla zakotvená v současném právním řádu nevyhovují specifikům oblasti umělé inteligence. Ze stávajících pravidel je přesto nutné vycházet. Například na škodu způsobenou při poskytování služeb s užitím umělé inteligence by bylo možné vztáhnout úpravu odpovědnosti za škodu způsobenou věcí. Na škodu vzniklou při využívání přístroje s umělou inteligencí by zase mohla být aplikovatelná ustanovení o odpovědnosti za škodu způsobenou vadou věci movité nebo odpovědnosti za škodu z provozní činnosti. U autonomních vozidel by pravděpodobně přicházel v úvahu platný režim odpovědnosti provozovatele vozidla.
Ani při užití stávajících pravidel ale nemizí obtížnost prokazování viny. Uživatel by se často ocitl v situaci, kdy by postrádal doklady, že pohroma vznikla například v důsledku nekvalitních dat nebo chybou v algoritmu. Problém dokazování by mohl být do budoucna překlenut konstrukcí takzvané objektivní odpovědnosti, tedy odpovědnosti bez ohledu na zavinění. Tam, kde se tato přísná odpovědnost uplatní, není nutné při vymáhání náhrady škody prokazovat zavinění. Již nyní se objektivní odpovědnost používá třeba v případě odpovědnosti provozovatele vozidla.
Umělá inteligence a odpovědnost v souvislosti s jejím využitím je horkým tématem v celé EU. Unijní instituce už přišly s různými úvahami. Důraz kladou na režim objektivní odpovědnosti a myšlenku povinného pojištění.
EU zvažuje i povinné pojištění
Umělá inteligence a otázka odpovědnosti v souvislosti s jejím využitím je horkým tématem v celé Evropské unii. Unijní instituce už přišly s různými úvahami. Důraz kladou na zmíněný režim objektivní odpovědnosti a také na myšlenku povinného pojištění. Pohrávají si i s možností zavedení systému protokolování, které by mělo usnadnit dokazování příčiny vzniku škody. Experti EU pracují také s konceptem řízení rizik a tomu odpovídající mírou regulace.
Kategorizace jednotlivých systémů umělé inteligence dle míry rizika, kterou jejich užití představuje, se objevuje i v návrhu nařízení o umělé inteligenci. Nařízení má upravovat jakékoliv využívání technologií umělé inteligence v EU. Některé technologie chce zakázat, například ty umožňující rozdělovat občany na skupiny s různým „sociálním ratingem“. Vedle tohoto návrhu nařízení se v EU chystá i norma, která by měla přizpůsobit pravidla občanskoprávní odpovědnosti tak, aby lépe vyhovovala digitální době.
Ať už budou pravidla pro odpovědnost za škodu způsobenou umělou inteligencí vypadat jakkoliv, jedno je jisté. S ohledem na složitost a různorodost aplikací a systémů umělé inteligence nepůjde o jeden všespásný paragraf, ale spíše o sérii pravidel, která budou vycházet z těch stávajících. Budou je dále upravovat tak, aby se dala použít na případy, se kterými se právo dosud nesetkávalo. Jejich primárním cílem by mělo být, aby se v souvislosti s využíváním umělé inteligence ve všech státech EU zvýšila právní jistota.
Nová pravidla by tak měla především zaručit, aby na jednotném evropském trhu se systémy umělé inteligence nevznikaly zásadní rozdíly v odpovědnostním režimu v důsledku odlišných národních úprav. Míra (ne)jistoty by se totiž například skrze rozdílnou výši pojištění a náklady na poradenské služby propsala do cen produktů a služeb využívajících umělou inteligenci. To by zkomplikovalo život jak spotřebitelům, tak i výrobcům a prodejcům.
Snad se tedy již brzy dočkáme jasných pravidel odpovídajících technologiím dneška i zítřka. Když pak někomu vyhoří dům kvůli rozmarům inteligentního termostatu, bude mít větší jistotu, po kom náhradu škody vymáhat.
Martin Čapek
advokát KPMG Legal, specialista na právo informačních technologií a ochrany dat
Gabriela Blahoudková
advokátní koncipientka KPMG Legal