Warianty tytułu
Języki publikacji
Abstrakty
Wiedza, w jaki sposób sztuczna inteligencja podejmuje swoje decyzje, jest więc kluczowa, aby możliwe były wprowadzenie poziomów zaufania i nieufności oraz ich weryfikacja. Nie mniej istotne wydają się kwestie moralne. Niezbędne jest przeanalizowanie, z punktu etycznego, podejmowania decyzji przez maszynę w kryzysowych sytuacjach. Dla przykładu jak powinna postąpić sztuczna inteligencja w sytuacji zagrożenia na drodze - czy powinna zaryzykować życie kierowcy, czy życie grupy pieszych. Problem ten jest istotnym zagadnieniem z punktu widzenia teorii i praktyki podejmowania decyzji z wykorzystaniem sztucznej inteligencji. Zgodnie z wytycznymi Komisji Europejskiej w zakresie etyki dotyczącymi godnej zaufania sztucznej inteligencji godna zaufania sztuczna inteligencja posiada trzy cechy, które muszą charakteryzować wyposażony w nią system przez cały jego cykl życia: powinna być zgodna z prawem, etyczna oraz solidna zarówno z technicznego, jak i ze społecznego punktu widzenia, ponieważ systemy SI mogą wywoływać niezamierzone szkody nawet wówczas, gdy korzysta się z nich w dobrej wierze [Komisja Europejska, 2019]. Zaufanie do sztucznej inteligencji i do systemów uczenia maszynowe-go zależy między innymi od transparentności użytych modeli. Modele, które nie są transparentne, z założenia powinny być wyjaśnialne i interpretowalne, aby człoczłowiek mógł zrozumieć, dlaczego otrzymuje konkretne wyniki i analizy. Ma to na celu zwiększenie transparentności tych modeli, a w konsekwencji zwiększenie zaufania użytkowników do otrzymanych wyników. W następnych punktach przedstawiono zagadnienia interpretowalności algorytmów uczenia maszynowego (ang. IML - Interpretable Machine Learning) i wytłumaczalność sztucznej inteligencji (ang. XAI - eXplainable Artificial Intelligence). W pierwszej kolejności omówiono algorytmy uczenia maszynowego w celu przedstawienia sposobu kreowania wiedzy przez maszynę i podejmowania przez nią decyzji. (fragment tekstu)
Rocznik
Strony
134--149
Opis fizyczny
Twórcy
autor
- Uniwersytet Ekonomiczny w Katowicach
autor
- Uniwersytet Ekonomiczny w Katowicach
autor
- Uniwersytet Ekonomiczny w Katowicach
Bibliografia
- Barber B. (1983), The Logic and Limits of Trust, Rutgers University Press, New Brunswick, NJ.
- Barredo Arrieta A., Díaz-Rodríguez N., Del Ser J., Bennetot A., Tabik S., Barbado A., Garcia S., Gil-Lopez S., Molina D., Benjamins R., Chatila R., Herrera F. (2020), Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI, "Information Fusion", Vol. 58, s. 82-115, https://doi.org/https: //doi.org/10.1016/j.in us.2019.12.012.
- Bellotti V., Edwards K. (2001), Intelligibility and Accountability: Human Considerations in Context-aware Systems, "Human Computer Interaction", Vol. 16(2-4), s. 193-212, https://doi.org/10.1207/S15327051HCI16234\_05.
- Biecek P., Burzykowski T. (2021), Explanatory Model Analysis: Explore, Explain and Examine Predictive Models, Chapman & Hall/CRC, New York.
- Craven M.W. (1996), Extracting Comprehensible Models from Trained Neural Networks (tech. rep.), University of Wisconsin-Madison Department of Computer Sciences, https://minds.wisconsin.edu/bitstream/handle/1793/60078/TR1326.pdf?sequence=1.
- Duch W. (1997), Fascynujący świat komputerów, Wydawnictwo Nakom, Poznań.
- Duval A. (2019), Explainable Artificial Intelligence (XAI), MA4K9 Scholarly Report, The University of Warwick, Mathematics Institute.
- Fernandez A., Herrera F., Cordon O., Jose del Jesus M., Marcelloni F. (2019), Evolutionary Fuzzy Systems for Explainable Artificial Intelligence: Why, When, What for, and Where to? "IEEE Computational Intelligence Magazine", Vol. 14(1), s. 69-81.
- Gall R. (2018), Machine Learning Explainability vs Interpretability: Two Concepts that Could Help Restore Trust in AI, https://www.Kdnuggets. com/2018/12/machine-learning-explainability-interpretability-ai.html.
- Gleicher M. (2016), A Framework for Considering Comprehensibility in Modeling [PMID: 27441712], "Big Data", Vol. 4(2), s. 75-88, https://doi.org/10.1089/big. 2016.0007.
- Goodman B., Flaxman S. (2017), European Union Regulations on Algorithmic Decision--making and a Right to Explanation, "AI Magazine", Vol. 38(3), s. 50-57, https:// doi.org/10.1609/aimag.v38i3.2741.
- Gunning D., Stefik M., Choi J., Miller T., Stumpf S., Yang G.-Z. (2019), XAI-Explainable Artificial Intelligence, "Science Robotics", Vol. 4(37), https: //doi.org/ 10.1126/scirobotics.aay7120.
- Guo M., Zhang Q., Liao X., Chen Y. (2019), An Interpretable Machine Learning Framework for Modelling Human Decision Behavior, arXiv preprint arXiv:1906. 01233.
- Komisja Europejska (2019), Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji, https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/ COMMITTEES/JURI/DV/2019/11-06/Ethics-guidelines-AI_PL.pdf.
- Lewicki R.J., McAllister D.J., Bies R.J. (1998), Trust and Distrust: New Relationships and Realities, "Academy of Management Review", Vol. 23(3), s. 438-458.
- Mayer R.C., Davis J.H., Schoorman F.D. (1995), An Integrative Model of Organizational Trust, "Academy of Management Review", Vol. 20(3), s. 709-734.
- Mellinger G.D. (1956), Interpersonal Trust as a Factor in Communication, "The Journal of Abnormal and Social Psychology", Vol. 52(3), s. 304-309.
- Molnar C. (2020), Interpretable Machine Learning, www.lulu.com (dostęp: 23.04.2021).
- Montavon G., Samek W., Müller K.-R. (2018), Methods for Interpreting and Understanding Deep Neural Networks, "Digital Signal Processing", Vol. 73, s. 1-15, https://doi.org/https://doi.org/10.1016/j.dsp.2017.10.011.
- Read W.H. (1962), Upward Communication in Industrial Hierarchies, "Human Relations", Vol. 15(1), s. 3-15.
- Ribeiro M.T., Singh S., Guestrin C. (2016), "Why Should I Trust You?": Explaining the Predictions of any Classier, Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, s. 1135-1144, https:// doi.org/10.1145/2939672.2939778.
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 roku w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE. Dziennik Urzędowy UE L119, s. 1-88, Baza Aktów Prawnych Unii Europejskiej [online], http://eur-lex.europa.eu (dostęp: 23.04.2021).
- Siau K., Wang W. (2018), Building Trust in Artificial Intelligence, Machine Learning, and Robotics, "Cutter Business Technology Journal", Vol. 31(2), s. 47-53.
- Toreini E., Aitken M., Coopamootoo K., Elliott K., Zelaya C.G., van Moorsel A. (2020), The Relationship between Trust in AI and Trustworthy Machine Learning Technologies, Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, s. 272-283.
- Ustawa z dnia 21 lutego 2019 roku o zmianie niektórych ustaw w związku z zapewnieniem stosowania rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 roku w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych). Dz.U. 2019, poz. 730.
- [www 1] www.scopus.pl (dostęp: 22.04.2021).
Typ dokumentu
Bibliografia
Identyfikatory
Identyfikator YADDA
bwmeta1.element.ekon-element-000171641205