Wie soll die Zukunft von AI und Big Data aussehen?

Die Forscher fordern die Öffentlichkeit auf, sich zu fünf Szenarien mit künstlicher Intelligenz im Jahr 2025 zu äußern

Künstliche Intelligenz hat bereits erhebliche Auswirkungen auf unser Leben, unsere Gesellschaft und unsere Wirtschaft. AI hat bereits viele Fragen aufgeworfen, unter anderem in Bezug auf Privatsphäre, Datenschutz, Diskriminierung, Autonomie, Machtasymmetrien und Fairness. Aber was wird AI in sechs Jahren, im Jahr 2025, tun? Welche Maßnahmen sollten die politischen Entscheidungsträger ergreifen, um sicherzustellen, dass wir eine gewünschte Zukunft erreichen und eine unerwünschte vermeiden?

Um über unsere KI-infundierte Gesellschaft im Jahr 2025 zu spekulieren, veranstaltete das EU-finanzierte SHERPA-Projekt eine Reihe von Workshops, die zur Entwicklung von fünf Szenarien zu Technologien führten, die Menschen imitieren, Information Warfare, fahrerlose Autos, vorausschauende Polizeiarbeit und das Lernen von Buddy-Robotern. In jedem Szenario werden die Technologien und Anwendungen vorgestellt, die im Jahr 2025 verfügbar sein könnten, eine kurze Vignette, in der dargestellt wird, wie die Technologien oder Anwendungen eingesetzt werden können, ihre ethischen, rechtlichen, sozialen und wirtschaftlichen Auswirkungen und die Empfehlungen, um eine gewünschte Zukunft zu erreichen und unerwünschte Auswirkungen zu vermeiden ein.

Die Workshops versammelten eine breite Palette von Interessengruppen aus Wissenschaft, Industrie, Organisationen der Zivilgesellschaft, Medien, Aufsichtsbehörden, Pädagogen, Technologen, Cybersicherheitsexperten und Künstlern, um über diese fünf verschiedenen Bereiche und die Zukunftsaussichten zu diskutieren.

Das SHERPA-Projekt lädt jetzt die Öffentlichkeit ein, die Szenarien zu überprüfen und ihre Kommentare zu unserer KI-Zukunft abzugeben (bitte beachten Sie, dass die Szenarien nur in englischer Sprache vorliegen). Das Ergebnis der Szenarien ist eine Reihe von Empfehlungen an die politischen Entscheidungsträger.

Das SHERPA-Projekt wird koordiniert von De Montfort University (UK) mit Konsortialpartnern Trilateral Research (UK), Twente University (NL), European Network of Research Ethics Committees (EUREC, DE), University of Central Lancashire in Cyprus (CY), the Stichting Nederlands Normalisatie Instituut (NEN, the Dutch standards body), Mutual Shoots (UK), Aequitas Human Rights, (CY), F-Secure (FI), the European Business Summit, (BE), und Pineapple Jazz (NL).

Für weitere Informationen kontaktieren:
david.wright@trilateralresearch.com
oder
tally.hatzakis@trilateralresearch.com