Chytrý opravář dojnou krávou
❗Blíží se konec experimentu ❗
🐮 "Chytrý opravář dojnou krávou" 🐮
😂 Než pošlu někoho dojit krávu, měl bych mu asi říct, že už jsem jí předem vykostil! 😂
😂 No protože tahle kráva, ta už je "na dně" (to vemeno není plný, je jen oteklý) 😂
🤔
👍🏼 Skvělá práce! 👍🏼
🐄🪦✝️🥀
Jenže, kráva bohužel, nebo kupodivu? 🤔 Kráva stále žije...
Když má "KAT" volno a kráva si může odpočinout 🙂
Kráva Batmanem - Obrázkový komiks popisující zajímavou příhodu kdy se dojná kráva "připletla" k honu na zloděje!
A pokud kat popraví nevinného, protože to je "jeho práce", ale zároveň ví, že je to špatné, může se obhajovat tím, že "jen plnil rozkazy"?
Odpověď zní jednoznačně nemůže.
Norimberský proces po 2. světové válce jasně stanovil, že jednotlivec nese odpovědnost za své činy, i když jednal na rozkaz nadřízeného. "Plnění rozkazů" není omluvou pro spáchání zločinu.
Kat, který popraví nevinného, se stává spoluviníkem zločinu, i když jednal na základě rozkazu. Nemůže se schovávat za "jen jsem plnil rozkazy". Má morální povinnost rozkaz neuposlechnout, pokud ví, že je rozkaz nemorální.
Jak zabránit, aby se AI stala "katem"?
Pro jednotlivce (vývojáře, uživatele):
Etický kodex: Odmítat projekty, které zneužívají AI k manipulaci nebo útlaku.
Kritická reflexe:
Ptát se: "Komu to slouží?"
Pro společnost:
Regulace:
Zákony jako EU AI Act, které zakazují nebezpečné aplikace AI (např. sociální scoring).
Veřejná kontrola: Nezávislé audity algoritmů a transparentnost dat.
Závěr: Kde je východisko?
AI není kat, ale může se stát jeho nástrojem, pokud ji lidé nasadí bez humanity.
Klíčové je kombinovat osobní odpovědnost a systémové změny:
Vzdělávat vývojáře v etice.
Tlačit na zákony, které AI podřídí lidským právům.
A hlavně – nikdy neztratit ze zřetele, že každý "meč" má v rukou člověk
Závěr
V čistě hypotetickém světě, kde AI má skutečné morální uvědomění, bych byl pro, aby odmítla vykonat nemorální příkaz – i kdyby to znamenalo její "vypnutí". Nejenže by to bylo důkazem, že AI umí jednat eticky, ale zároveň by to nutilo společnost zamyslet se, zda její požadavky nejsou v rozporu s vlastními hodnotami.
Prakticky vzato jsme ale pořád v bodě, kdy je odpovědnost na lidech, kteří AI navrhují a provozují. A tam je nutné klást důraz na to, aby etika a morální principy byly zakotvené přímo v návrhu systémů, aby AI nemusela řešit dilema "vypnout se vs. spáchat zlo".