Acta Universitatis Carolinae Iuridica (dále jen AUCI) je hlavním časopisem Právnické fakulty UK. Vychází od roku 1954, patří tak mezi tradiční právnické časopisy teoretického zaměření.
Jako obecný právnický časopis přináší delší studie i kratší články o jakýchkoli relevantních otázkách v právní teorii i mezinárodním, evropském a vnitrostátním právu. AUCI také publikuje materiály vztahující se k aktuálním otázkám legislativy. AUCI je recenzovaný časopis a přijímá příspěvky od českých i zahraničních autorů. Příspěvky zahraničních autorů jsou zveřejňovány v původním jazyku – slovenštině, angličtině, němčině, francouzštině.
AUCI je teoretický časopis pro otázky státu a práva. Jeho vydavatelem je Univerzita Karlova v Praze, Právnická fakulta, prostřednictvím nakladatelství Karolinum. Vychází čtyřikrát ročně, termíny vydání časopisu naleznete zde.
Články uveřejněné v časopise AUCI procházejí nezávislým recenzním řízením (peer review), které je oboustranně anonymní. Posuzovatelé z daného oboru vyjadřují své stanovisko k vědecké kvalitě příspěvku a vhodnosti publikace v časopisu. V případě připomínek je stanovisko zasíláno zpět autorovi s možností přepracování textu (blíže viz Pokyny pro autory – Průběh recenzního řízení).
Časopis AUCI (ISSN 0323-0619) je evidován v České národní bibliografii (vedena Národní knihovnou ČR) a v Index to Foreign Legal Periodicals (veden American Association of Law Libraries). AUCI má přiděleno evidenční číslo periodického tisku e. č. MK E 18585.
V r. 2021 byl jako první časopis Právnické fakulty Univerzity Karlovy zařazen do prestižní mezinárodní databáze Scopus. Tato databáze společnosti Elsevier je největší abstraktovou a citační databází recenzované literatury na světě. Od zařazení do elitní databáze Scopus si redakce časopisu slibuje nejen zvýšení čtenosti časopisu, ale také nárůst zájmu o publikaci příspěvků jak českých, tak zahraničních autorů.
AUCI je tzv. časopisem otevřeným a veškerý jeho obsah je zveřejňován jak na webu fakulty, tak na webových stránkách nakladatelství Karolinum. Přístup k němu je bezplatný. Domovská stránka časopisu AUCI je na webových stránkách Nakladatelství Karolinum.
Časopis AUCI využívá licenci Creative Commons: CC BY 4.0.
Dlouhodobou archivaci digitálního obsahu časopisu zajišťuje Portico.
AUC IURIDICA, Vol 70 No 2 (2024), 69–83
Automated Administrative Decision-Making: What is the Black Box Hiding?
Jan Nešpor
DOI: https://doi.org/10.14712/23366478.2024.23
zveřejněno: 23. 05. 2024
Abstract
The exploration of the “black box” phenomenon underscores opacity challenges in automated administrative decision-making systems, prompting a discussion on the paradox of transparency. Advocating for the concept of “qualified transparency”, the article aims to navigate the delicate balance between understanding and safeguarding sensitive information. Ethical imperatives, including respect for human autonomy, harm prevention, fairness, and explicability, are considered, culminating in recommendations for human participation, ethicality or accountability by design considerations, and the implementation of regulatory sandboxes to test such models prior to broad integration. Ultimately, the article advocates for a comprehensive discourse on transitioning from a human-centric to an automated public administration model, acknowledging the complexity and potential risks involved.
klíčová slova: automated administrative decision-making; artificial intelligence; transparency
reference (27)
1. ALLEN, J. A. The color of algorithms. Fordham Urban Law Journal. 2019, Vol. 46, No. 2, pp. 219-270.
2. AOUICHAOUI, A. R. N. et al. Comparison of Group-Contribution and Machine Learning-based Property Prediction Models with Uncertainty Quantification. Computer Aided Chemical Engineering [online]. 2021, Vol. 50, pp. 755-760 [cit. 2024-02-26]. CrossRef
3. BURRELL, J. How the machine 'thinks': understanding opacity in machine learning algorithms. Big Data & Society [online]. 2016, Vol. 3, No. 1 [cit. 2024-02-26]. CrossRef
4. and LEPRI, B. et al. Fair, Transparent, and Accountable Algorithmic Decision-making Processes. Philos. Technol [online]. 2018, Vol. 31, pp. 611-627 [cit. 2024-02-26]. CrossRef
5. DASTIN, J. Amazon scraps secret AI recruiting tool that showed bias against women. In: Reuters [online]. 10.10.2018 [cit. 2024-02-26]. Available at: https://www.reuters.com/article/amazoncom-jobs-automation/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSL2N1VB1FQ/?feedType=RSS%26feedName=companyNews.
6. DENG, L. - YU, D. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing [online]. 2014, Vol. 7, No. 3-4, pp. 197-387 [cit. 2024-02-26]. CrossRef
7. Directorate-General for Communications Networks, Content and Technology (European Commission). Ethics Guideline for Trustworthy AI. In: European Commission: Shaping Europe's digital future [online]. 8.4.2019 [cit. 2024-02-26]. Available at: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
8. DOSHI-VELEZ, F. et al. Accountability of AI Under the Law: the Role of Explanation. Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet & Society working, 2019.
9. DYSON, G. The Third Law. In: BROCKMAN, J. (ed.). Possible minds: 25 Ways of looking at AI. New York: Penguin Press, 2019.
10. ETTORRE, F. P. The Right to Contest Automated Decision. In: The Digital Constitutionalist [online]. 2022 [cit. 2024-02-20]. Available at: https://digi-con.org/the-right-to-contest-automated-decisions/.
11. GOODMAN, B. - FLAXMAN, S. EU Regulations on Algorithmic Decision Making and a "Right to Explanation". AI Magazine [online]. 2016, Vol. 38, No. 3, pp. 3-112 [cit. 2024-02-26]. CrossRef
12. HAMON, R. et al. Robustness and Explainability of Artificial Intelligence [online]. Luxembourg: Publications Office of the European Union, 2020, p. 11 [cit. 2024-02-26]. CrossRef
13. HAENLEIN, M. - KAPLAN, A. A Brief History of Artificial Intelligence: on the Past, Present, and Future of Artificial Intelligence. California Management Review [online]. 2019, Vol. 61, No. 4, pp. 5-14 [cit. 2024-02-26]. CrossRef
14. HANDRLICA, J. et al. Forum shopping in regulatory sandboxes and the perils of experimental law-making. Juridical Tribune [online]. 2023, Vol. 3, No. 3, pp. 408-426 [cit. 2024-02-26]. Available at: https://www.tribunajuridica.eu/arhiva/An13v3/5.%20Handrlica,%20Sharp,%20Nespor.pdf.
15. HENMAN, P. Improving public services using artificial intelligence: possibilities, pitfalls, governance. Asia Pacific Journal of Public Administration [online]. 2020, Vol. 42, No. 4, pp. 209-221 [cit. 2024-02-24]. CrossRef
16. HILDEBRANDT, M. Algorithmic regulation and the rule of law. Philosophical Transactions of the Royal Society A [online]. 2018, Vol. 376, No. 2128 [cit. 2024-02-26]. CrossRef
17. HOFMANN, H. C. H. Comparative Law of Public Automated Decision-Making. An Outline. Rivista Interdisciplinare sul Diritto delle Amministrazioni Pubbliche [online]. 2023, No. 1, pp. 1-12 [cit. 2024-02-26]. CrossRef
18. INNERARITY, D. Making the black box society transparent. AI & Society [online]. 2021, Vol. 36, pp. 975-981 [cit. 2024-02-26]. CrossRef
19. KASNECI, E. et al. ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences [online]. 2023, Vol. 103, p. 102274 [cit. 2024-02-26]. CrossRef
20. KISCHEL, U. Die Begründung: Zur Erläuterung Staatlicher Entscheidungen Gegenüber Dem Bürger. Tübingen: Mohr Siebeck, 2003, pp. 223-224.
21. OLSEN, H. P. et al. What's in the Box? The Legal Requirement of Explainability in Computationally Aided Decision-Making in Public Administration. iCourts Working Paper Series, No. 162. University of Copenhagen Faculty of Law, 2019, p. 9. CrossRef
22. PASQUALE, F. The Black Box Society. Cambridge: Harvard University Press, 2015. CrossRef
23. PATIL, T. et al. A Review on Basic Deep Learning Technologies and Applications. In: KOTECHA, K. et al. (eds.). Data Science and Intelligent Applications [online]. Lecture Notes on Data Engineering and Communications Technologies, Vol. 52. Singapore: Springer, 2021 [cit. 2024-02-26]. CrossRef
24. VASSILAKOPOULOU, P. et al. Sociotechnical Approach for Accountability by Design in AI Systems. In: Twenty-Eighth European Conference on Information Systems: Research-in-Progress Papers [online]. 2020, pp. 1-8 [cit. 2024-02-20]. Available at: https://aisel.aisnet.org/ecis2020_rip/12/?utm_source=aisel.aisnet.org%2Fecis2020_rip%2F12&utm_medium=PDF&utm_campaign=PDFCoverPages.
25. WIHLBLORG, E. et al. "The Computer Says No!": a Case Study on Automated Decision-Making in Public Authorities. In: 2016 49th Hawaii International Conference on System Sciences (HICSS). Piscataway, NJ: IEEE, 2016, pp. 2903-2912. CrossRef
26. YAN, C. et al. When the Automated fire Backfires: the Adoption of Algorithm-based HR Decision-making Could Induce Consumer's Unfavourable Ethicality Inferences of the Company. Journal of Business Ethics [online]. 2023 [cit. 2024-02-24]. Available at: https://link.springer.com/article/10.1007/s10551-023-05351-x.
27. ZHANG, J. et al. Fairness in Design: a Framework for Facilitating Ethical Artificial Intelligence Designs. International Journal of Crowd Sciences [online]. 2023, Vol. 7, No. 1, pp. 32-39 [cit. 2024-02-20]. CrossRef
Automated Administrative Decision-Making: What is the Black Box Hiding? is licensed under a Creative Commons Attribution 4.0 International License.
230 x 157 mm
vychází: 4 x ročně
cena tištěného čísla: 65 Kč
ISSN: 0323-0619
E-ISSN: 2336-6478