Exemple

Humanites o etyce technologii podczas Forum Nauki i Biznesu

Zofia Dzik, prezes Instytutu Humanites, oraz Maciej Chojnowski, dyrektor programowy CET, dyskutowali o etyce technologii podczas drugiej edycji Forum Nauki i Biznesu zorganizowanej 23 listopada przez Podkarpackie Centrum Innowacji. Ze strony organizatora Forum w dyskusji uczestniczyli prezes PCI Jacek Kubrak oraz Radosław Krajewski. Podczas panelu poruszono m.in. kwestie:

  • wpływu rozwoju technologii na zmianę modelu przywództwa,
  • moralności maszyn,
  • możliwości popełnienia przestępstwa przez AI.

Model Spójnego Przywództwa zmienia filozofię zarządzania i rozwoju ludzi. Od podejścia, w którym zatrudniamy pracownika, traktując to jak transakcję na rozum albo mięśnie, przechodzimy do podejścia, w którym dostrzegamy człowieka wraz z jego wielowymiarowością: sferą fizyczną, umysłową, emocjonalną i duchową oraz złożonością jego ról zawodowych i społecznych – mówiła Zofia Dzik. I dodawała: Ten model dotyczy nie tylko zarządzania firmą, lecz także budowania przestrzeni, która daje firmie szansę na osiągnięcie swoich rezultatów, a ludziom na odnalezienie poczucia sensu w życiu i jego pełniejszego przeżywania. Dlatego nie ma potrzeby rozwoju tego modelu na inne relacje, bo on właśnie obejmuje człowieka w relacji z otoczeniem. Ksiądz Tischner mówił, że zawsze żyjemy obok kogoś i dla kogoś. Ja też patrzę tak na człowieka i jego podmiotowość w kontekście technologii. Dlatego ten model tak dobrze wpisuje się w potrzeby dzisiejszych czasów.

Z kolei Maciej Chojnowski przekonywał, że pomysł podmiotowości maszyn to wizja rodem z science-fiction. AI nie jest podmiotem moralnym, tzn. nie ma wyobraźni moralnej ani nie odczuwa świata w ludzkich kategoriach, a jedynie reprodukuje inteligentne zachowania, lecz ich nie wytwarza – mówił. Dlatego w świetle prawa europejskiego odpowiedzialność za AI ponosi podmiot wdrażający. Przywołując słowa prof. Aimee van Wynsberghe z Uniwersytetu w Bonn, Chojnowski podkreślał, że zaufanie dotyczy relacji międzyludzkich. Na maszynach możemy jedynie polegać. A więc mogę zaufać inżynierom czy nawet firmom, ale już nie AI. Na niej mogę polegać, tak jak na windzie czy samochodzie, jeśli ufam, że zostały dobrze zaprojektowane lub naprawione przez fachowców – argumentował.

Panel poprzedziło wystąpienie Maciej Chojnowskiego pt. Sztuczna inteligencja dla dobra człowieka i świata. Cele, konteksty i narzędzia etyki AI.

Centrum Etyki Technologii Instytutu Humanites to ośrodek promujący odpowiedzialny rozwój innowacji. CET tworzy przestrzeń dla debaty międzysektorowej i promuje międzynarodowe rekomendacje dotyczące etyki technologii. Oprócz tego bierze udział w pracach gremiów doradczych rozwijających politykę rozwoju technologii (Grupa Robocza ds. Sztucznej Inteligencji przy KPRM), popularyzuje metodyki pozwalające na projektowanie technologii zgodnie z wartościami, uczestniczy w rozwoju współczesnej refleksji na temat etyki technologii oraz współpracuje z Instytutem Humanites w zakresie rozwoju spójnego przywództwa.

Facebook Twitter Google Digg Reddit LinkedIn Pinterest StumbleUpon Email
Exemple

Godna zaufania sztuczna inteligencja to jeden z priorytetów unijnej polityki rozwoju cyfrowych innowacji. Także Polska popiera koncepcję trustworthy AI w trosce o właściwe proporcje w relacji człowiek i technologia. Jednak ogólne zasady etyczne nie są łatwe do wdrożenia. Organizowana 16 listopada przez Centrum Etyki Technologii Instytutu Humanites konferencja pokaże, jak stosować je w praktyce.

Etyka sztucznej inteligencji to jeden z najgorętszych tematów w obecnej dyskusji o przyszłości technologii cyfrowych. Postulat odpowiedzialnego rozwoju AI jest dziś na ustach wszystkich: inżynierów budujących systemy uczenia maszynowego, decydentów opracowujących polityki działania i regulacje dotyczące sfery cyfrowej, naukowców badających oddziaływanie technologii na społeczeństwo, przedstawicieli NGO-sów monitorujących wykorzystywanie technologii przez organizacje prywatne i rządowe, wreszcie samych użytkowników nowych technologii.

W ostatnich latach powstało też wiele opracowań wskazujących, jak etycznie rozwijać systemy AI. W Europie najbardziej znane są Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji przygotowane na zlecenie Komisji Europejskiej. Określają one zasady i wymogi leżące u podstaw trustworthy AI, jednak zawarte w nich wskazania są zbyt ogólne, by móc je skutecznie stosować w praktyce.

Aby programiści i użytkownicy mogli zoperacjonalizować zasady etyki AI, potrzebne są więc dodatkowe rozwiązania. Podczas organizowanej 16 listopada przez Centrum Etyki Technologii Instytutu Humanites konferencji online Etyka sztucznej inteligencji: od zasad do praktyki. Skuteczny rozwój i wdrażanie godnej zaufania AI zostaną one omówione wraz z prezentacją metodycznych i organizacyjnych wymogów dotyczących etyki sztucznej inteligencji oraz możliwych trudności w ich wdrażaniu.

Polscy i zagraniczni eksperci przedstawią sposoby praktycznej operacjonalizacji etyki AI (m.in. podejście Ethics by Design) oraz wskażą na systemowe działania potrzebne do upowszechnienia odpowiedzialnego rozwoju sztucznej inteligencji w kontekście projektu europejskich regulacji AI, jak np. zaangażowanie organizacji branżowych w tworzenie i popularyzowanie dobrych praktyk.

Gościem specjalnym konferencji będzie prof. Bernd C. Stahl – dyrektor Centre for Computing and Social Responsibility na Uniwersytecie De Montfort, koordynator unijnego projektu SHERPA (Shaping the ethical dimensions of information technologies – a European perspective) i dyrektor ds. etyki we flagowym projekcie UE Human Brain Project.

Wśród prelegentów znajdą się też m.in. Anna Topol – Chief Technology Officer w Global Think Labs, IBM Research, dr Robert Sroka – ekspert ds. odpowiedzialnego inwestowania z Abris Capital Partners oraz dr Michał Nowakowski specjalizujący się w prawie innowacji finansowych i współzałożyciel firmy Ceforai.

– Dyskusja o normach etycznych jest ważna, ale celem jest włączenie ich w proces wytwarzania i wykorzystywania innowacji.  Dlatego kilka miesięcy po pierwszej konferencji CET, która dotyczyła szeroko pojętej etyki technologii, skupiamy się na zastosowaniu etyki AI w praktyce. Odzwierciedla to dobrze zakres działań CET. Na wyzwania związane z technologią patrzymy bowiem zarówno w szerokiej, horyzontalnej perspektywie, jak i skupiamy się na implementacji konkretnych rozwiązań. Jednak tylko takie podejście umożliwia dziś efektywne rozwiązywanie problemów, o czym w swojej najnowszej książce przekonuje prof. Bernd Stahl, keynote speaker nadchodzącej konferencji  – mówi Zofia Dzik, fundator i prezes Instytutu Humanites, przy którym działa CET, a także przewodnicząca Rady Programowej Centrum.

– Znajomość metod operacjonalizacji zasad trustworthy AI jest konieczna, by skutecznie wdrażać unijne wytyczne i w odpowiedzialny sposób rozwijać sztuczną inteligencję. Zależy nam na tym, aby wszyscy uczestnicy konferencji wyszli z niej bogatsi o praktyczną wiedzę, która pozwoli im lepiej odnaleźć się w niełatwym świecie etycznych wymogów dotyczących AI. Te umiejętności są szczególnie ważne w Polsce, gdzie polityka rozwoju sztucznej inteligencji opiera się na podejściu etycznym – dodaje Maciej Chojnowski, dyrektor programowy CET.

Konferencja skierowana jest do liderów biznesu i administracji, których organizacje budują bądź wdrażają cyfrowe technologie, jak również do rozwijających je programistów, a także prawników i etyków zainteresowanych nowymi technologiami.

Wydarzenie jest bezpłatne, ale wymagana jest rejestracja. Więcej szczegółów na stronie: https://evenea.pl/pl/wydarzenie/cetkonferencja2.

Centrum Etyki Technologii Instytutu Humanites to ośrodek promujący odpowiedzialny rozwój innowacji. CET tworzy przestrzeń dla debaty międzysektorowej i promuje międzynarodowe rekomendacje dotyczące etyki technologii. Oprócz tego bierze udział w pracach gremiów doradczych rozwijających politykę rozwoju technologii (Grupa Robocza ds. Sztucznej Inteligencji przy KPRM), popularyzuje metodyki pozwalające na projektowanie technologii zgodnie z wartościami, uczestniczy w rozwoju współczesnej refleksji na temat etyki technologii oraz współpracuje z Instytutem Humanites w zakresie rozwoju spójnego przywództwa.

Facebook Twitter Google Digg Reddit LinkedIn Pinterest StumbleUpon Email