Our position

Artificial Intelligence

Generative AI models are here to stay. AI-based tools, such as Large Language Models (LLM) or image-, sound- and video-generating models, will be integrated into many areas of our lives and will also continue to develop rapidly and steadily. It would be wrong to ignore or ban AI tools. Rather, it is up to us as a university to adapt our curricula/learning objectives, train researchers, teachers and students in dealing with AI and provide them with the tools, framework conditions and recommendations for dealing with AI. We see it as our task to guide the use of generative AI models at the university in the sense of proactive but critical use (cf. Giesbert et al. 2023: 12).
For lecturers, the use of artificial intelligence to prepare and organise lessons and assess student performance harbours immense potential, but also risks. We would like to encourage our teaching staff to take a proactive approach to the responsible use of AI technologies.

Preparation of lessons with AI

AI technology and, in particular, generative AI tools (especially so-called large language models) can support teachers in preparing lessons, for example in the following use cases:

  • Research, information and source collection
    The use of generative AI language tools in lesson preparation can support the collection of information and sources and research work.
  • Planning, organising and structuring teaching units
    AI can be used to plan, organise and structure teaching units (keyword: distribution of material over the semester or inspiration for teaching/developing content).
  • Production of teaching materials
    Generative AI language tools can also support teachers in the creation of teaching materials. There are applications that also take care of the design and formatting.
  • Creation of (multiple choice) questions
    AI can be used to create questions on content that can be exported to other applications.
    Language Support: Summaries, Translations, etc.
    Language assistants also help with the formulation of texts, as well as summarising longer texts or creating translations.

The benefits of using AI tools to prepare lessons can be the rapid generation of ideas or the facilitation of routine activities, which in turn can lead to the teacher being able to spend more time on individualised support for their students. However, it should always be noted that the results are not always correct and AI-based tools do not always generate objective and neutral outputs.
(© Steirische Hochschulkonferenz 2023, Künstliche Intelligenz zur Unterrichtsvorbereitung verwenden; the above text was partly taken verbatim from the use case.)

If you are a lecturer at CAMPUS 02 and would like to know more about the use of AI technologies, the effective use of prompts or ethical issues in connection with AI tools, please contact the Centre for Unversity Didactics (ZHD) and arrange a personal appointment with our experts.

Use of AI in lessons

The use of AI in teaching can enrich teaching and support students in achieving their learning objectives - both in joint, teacher-led use in the (online) classroom and during asynchronous phases or in self-study.

When used and guided correctly by the teacher, generative AI language tools in particular are characterised by flexibility (chatbots are available at all times), ease of use and speed in answering questions. Large language models can also enable individualised learning for students, for example by providing feedback, assistance or translations. Interactive teaching and learning scenarios can also be created and implemented with the help of generative AI tools. The teacher can comment on and evaluate the students' communication with the language tools and reflect on it together with the learners.

When students are expected to use AI tools in class or during asynchronous learning phases, they should first learn about responsible AI usage. Additionally, the lecturer themselves must try out the use of AI tools beforehand and test the planned implementation. In this context, lecturers should consider redefining the teaching and learning objectives. Students and lecturers must be aware that content generated by generative AI tools may be prone to errors and should be verified for accuracy.

For data protection reasons, lecturers must refrain from obliging students to use AI tools such as ChatGPT without being asked. The free version of ChatGPT requires registration, the tool stores personal data and input may be used for training purposes. Platforms such as fobizz can be an alternative.

Lecturers at CAMPUS 02 UAS are encouraged to issue so-called ‘Rules for Tools’ in their courses (an example of this are the Rules for Tools by Prof. Dr. Spannagel of the Heidelberg University of Teacher Education, who chooses a proactive approach to the use of AI in teaching) in order to be completely transparent about how they handle the use of AI in their courses.
(© Steirische Hochschulkonferenz 2023, Generative KI-Sprachmodelle zur Individualisierung der Lernprozesse einsetzen. The above text was partly taken verbatim from the use case).

If you are a lecturer at CAMPUS 02 and would like to know more about the use of AI technologies, the effective use of prompts or ethical issues in connection with AI tools, please contact the Centre for Unversity Didactics (ZHD) and arrange a personal appointment with our experts.

Promoting AI-competences

The need to promote skills in the field of artificial intelligence (AI) in all degree programmes at universities is being emphasised in business and science. It is also important for lecturers to engage with the topic of AI at an early stage. Even if lecturers identify gaps in their own knowledge on the subject of AI, they should still familiarise themselves with artificial intelligence together with their students. We recommend that teachers build up a basic understanding of AI in their respective subject area through training, experimentation and peer learning.

Important competences related to AI are often referred to in the literature as AI literacy. A common definition of AI literacy describes it as a set of competences that enable individuals to critically evaluate AI technologies, communicate and collaborate effectively with AI and use AI as a tool online, at home and at work (Long & Magerko, 2020). AI literacy skills can be summarised as awareness, use, evaluation and ethics (Carolus et al., 2023).

Awareness beschreibt die Fähigkeit, verschiedene KI-Tools Awareness describes the ability to recognize various AI tools, to be aware of where AI could be used, and to understand how AI can be identified. Utilization means that AI can be applied to solving individual problems through structured approaches, precise prompting, and the correct choice of AI. Regarding competency evaluation, teachers can critically reflect on the input and output, identify potential errors, and apply scientific methodology to AI in terms of objectivity, reliability, and validity. With competencies in ethics, educators are able to discuss legal frameworks such as data protection and copyright, as well as consider potential biases of AI in their application.

The promotion of AI application in everyday work can be ensured through cognitive apprenticeship, reflection aids for AI ethics, and increasing AI awareness through regular discussions.

Carolus, A., Koch, M. J., Straka, S., Latoschik, M. E. & Wienrich, C. (2023). MAILS – Meta AI literacy scale: Development and testing of an AI literacy questionnaire based on well-founded competency models and psychological change- and meta-competencies. Computers in Human Behavior: Artificial Humans, 1(2), 100014. https://doi.org/10.1016/j.chbah.2023.100014

Long, D. & Magerko, B. (2020). What is AI Literacy? Competencies and Design Considerations. CHI ’20: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–16. https://doi.org/10.1145/3313831.3376727

(© Steirische Hochschulkonferenz 2024, KI-Kompetenzen vermitteln; the above text was partly taken verbatim from the use case.)

If you're a faculty member at CAMPUS 02 UAS and want to learn more about enhancing your AI competencies and those of your students, feel free to contact the Centre for Unversity Didactics (ZHD) and schedule a personal appointment with our experts.

Performance assessment

Nicht nur bei der Vorbereitung des Unterrichts oder während synchroner Lehreinheiten, auch betreffend Arbeitsaufträge müssen Lehrende sich mit dem Einfluss von KI-Tools auseinandersetzen. Während KI-Technologien für schriftliche Paper-Pencil-Klausuren vor Ort oder mündliche Prüfungen keine Rolle spielen werden, müssen sich Lehrende bei anderen Leistungen der Studierenden des potenziellen Einflusses von KI-Modellen bewusst sein. Vor allem für Hausarbeiten oder schriftliche Arbeiten ist es daher notwendig, Rules for Tools zur formulieren und diese den Studierenden transparent zu kommunizieren.

Zudem kann eine Anpassung der Methoden der Leistungsbeurteilung überlegenswert sein, wie beispielsweise:

  • Verlagerung von Arbeitsaufträgen in die Präsenz
  • Anpassung von Bewertungskriterien
  • Anpassung von Arbeits- und Prüfungsaufträgen (z.B. Einbau von Reflexionen) => Achtung jedoch vor lernzieltaxonomischen Verschiebungen
  • intensive Begleitung der Studierenden während des Lern- und Leistungserstellungsprozesses
  • Stärkung kompetenzorientierter Prüfungen

Ist der Einsatz von KI-Tools im Rahmen der Leistungserbringung ausdrücklich gestattet oder erwünscht (Antworten von generativen KI-Tools könnten beispielsweise von Studierenden durch immer wieder optimierte Prompts nachvollziehbar generiert und in Folge analysiert oder mit von den Studierenden selbst erstellten Antworten verglichen und evaluiert werden), ist den Studierenden genau vorzugeben, ob und wie der Einsatz offengelegt werden muss.

Der verlässliche, eindeutige und rechtssichere Nachweis zur Identifizierung KI-generierter Texte bleibt nach derzeitigem Wissensstand problembehaftet; daher raten wir zum derzeitigen Zeitpunkt vom Einsatz von Detektionssoftware für die Beurteilung ab.

Zudem möchten wir darauf hinweisen, dass Prüfungsleistungen von Studierenden urheberrechtlich geschützt sind und zur Beurteilung nicht in eine KI-Software eingepflegt werden dürfen, wenn die Software die Daten z.B. zum Training nutzt oder anderweitig verwendet. Bewertungen von Prüfungsleistungen sind prinzipiell von den Lehrenden selbst vorzunehmen – KI-Tools könnten dabei wiederum als Hilfsmittel (z.B. für die Formulierung von Feedback) verwendet werden.

Gimpel, H., Hall, K., Decker, S., Eymann, T., Lämmermann, L., Mädche, A., Röglinger, M., Ruiner, C., Schoch, M., Schoop, M., Urbach, N., Vandirk, S. (2023): “Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT for Higher Education: A Guide for Students and Lecturers”. University of Hohenheim. [Online] http://opus.uni-hohenheim.de/volltexte/2023/2146/pdf/dp_2023_02_online.pdf

Salden, P. & Leschke, J. (Hrsg.) (2023): „Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung“. Zentrum für Wissenschaftsdidaktik [Online] https://doi.org/10.13154/294-9734

Rudolph, J., Tan, S., Tan, S. (2023): „ChatGPT: Bullshit spewer or the end of traditional assessments in higher education?”. Journal of Applied Learning & Teaching, 6.1. [Online] https://journals.sfu.ca/jalt/index.php/jalt/article/view/689/

Wissenschaftliches Arbeiten mit KI

Für die FH CAMPUS 02 ist es in Bezug auf wissenschaftliches Arbeiten wichtig, dass die Prinzipien der guten wissenschaftlichen Praxis von Forschenden, Lehrenden und Studierenden eingehalten werden. Allen voran steht die Integrität der Forschenden. Die Sicherung der guten wissenschaftlichen Praxis in Forschungsvorhaben sehen wir nicht nur als Leitsatz, sondern als bedingungslose Verpflichtung der Hochschule. Das betrifft alle Formen des wissenschaftlichen Arbeitens von Bachelorarbeiten, über Masterarbeiten bis hin zu Forschungsprojekten von Forscher*innen in den Departments.

Die Fachhochschule CAMPUS 02 bekennt sich hier zu verantwortungsvoller Forschung unter Berücksichtigung einer aufrichtigen und transparenten Kommunikation, zu einer hohen Verlässlichkeit bei der Durchführung von Forschungstätigkeiten, zu einem unparteilichen Verhalten und Urteilen sowie zum verantwortungsvollen Umgang mit Forschungspartner*innen. (vgl. ÖAWI 2015: 4)

Im Rahmen wissenschaftlicher Arbeiten müssen Studierende im Zuge der Beschreibung der methodischen Vorgehensweise die Verwendung von KI-Tools offenlegen. Dabei sind die verwendeten Tools, die jeweils verwendete Version, verwendete Plug-Ins sowie die Einsatzzwecke der KI in der betreffenden Arbeit (z.B. Quellensuche, Ideengenerierung, sprachliche Hilfestellung, Gliederung, „Korrekturlesen“, Visualisierung, Testung von Fragebögen etc.) zu beschreiben. Wird ein KI-Tool zur Verbesserung der sprachlichen Formulierung verwendet, so ist dies auch im Rahmen der Beschreibung der Methoden anzugeben, muss im Fließtext jedoch nicht kenntlich gemacht werden. Die Departments haben den Studierenden genaue Vorgaben betreffend Inhalt und Aufbau der Beschreibung der Methoden zu machen.

Die FH CAMPUS 02 bekennt sich zur klaren Offenlegung der Verwendung von generativen KI-Tools, die über die rein sprachliche Bearbeitung von Texten hinausgeht; wichtig ist hierbei die eindeutige Trennung zwischen der Zitation herkömmlicher Quellen und der Offenlegung der KI-Nutzung.

Wenn Sie Lehrperson an der FH CAMPUS 02 sind und wissenschaftliche Arbeiten betreuen, stimmen Sie die genaue Vorgehensweise bitte mit Ihrem Department ab.

ÖAWI (2015): „Richtlinien der Österreichischen Agentur für wissenschaftliche Integrität zur Guten Wissenschaftlichen Praxis“. Österreichische Agentur für wissenschaftliche Integrität. Wien 

Chancen & Risiken

Chancen

Effizienzsteigerung: Unterstützung bei der Unterrichtsvorbereitung, Weiterbildung und Kreativität; Automatisierung von administrativen Aufgaben. Adaptive Lernpfade können einfacher erstellt werden.

Arbeitswelt: KI wird benötigt, um wettbewerbsfähig zu bleiben

Barrierefreiheit: in Lehr- und Lernsettings durch einfache Übersetzungen von Text und Audio und Transkriptionen

Personalisierung: Neue Lernmethoden sind mit KI möglich. Lernprozesse und Feedback kann mit KI individualisiert werden und ist jederzeit verfügbar.

Forschung: Neue Forschungsmethoden und -Anwendungen können zu einem Fortschritt in F&E führen.

Risiken

Datenschutz: Es sollte vermieden werden, sensible und personenbezogene Daten in Systeme einzugeben, in denen der Datenschutz nicht gewährleistet ist. Die Daten in vielen Tools werden in Amerika verarbeitet und unterliegen niedrigeren datenschutzrechtlichen Standards.

Urheberrecht: Lehrende müssen davon absehen, urheberrechtlich geschützte Werke oder Texte von Studierende in Prompts einer KI einzugeben.

Biases: Anwendung von Stereotypen und Verringerung von Diversität

Digital Divide: Nicht alle Studierenden sind in der Lage, Premium-Funktionen von KIs zu erwerben und dadurch einen Vorteil zu erhalten. Lehrende müssen deshalb auf den Einsatz von Unterrichtsmethoden und Tools achten, die von allen Studierende mit den gleichen Chancen genutzt werden können.

Prüfungssituationen: Studierende können KI in bestimmten Prüfungssituationen anwenden. Leistungsbeurteilungsmethoden sollten angepasst werden.

Transparenz: Die Verarbeitung und Nutzung von Daten, die Art der Trainingsdaten und Datensets sind häufig nicht einsehbar oder nachvollziehbar (Black Box).

Training programmes

Interne Angebote

Der für alle Lehrenden der FH CAMPUS 02 kostenlos zugängliche Online-Kurs Lehren an der FH CAMPUS 02 verfügt über eine Lektion zum Thema KI in der Lehre. Darin wird auf technische und historische Grundlagen der KI eingegangen sowie auf den Einfluss von KI auf die Lehre und das Lernen von Studierenden. Außerdem werden hilfreiche KI-Tools und Plattformen mit Tutorials für verschiedene Anwendungsfälle von Lehrenden und Studierenden vorgestellt.
Zudem bietet das ZHD Workshops für Lehrende an. In diesen Workshops werden Möglichkeiten zum Einsatz Künstlicher Intelligenz in der Lehre aufgezeigt sowie diskutiert, welche Herausforderungen KI mit sich bringt und wie wir mit diesen umgehen können.

Bereits veranstaltet wurde ein KI-Frühstück mit spannenden Diskussionen zum Thema KI in der Lehre und eine Weihnachtsaktion advent.event, in der neue KI-Tools vorgestellt wurden. Zudem gab es eine sehr erfolgreiche Veranstaltung Didaktik im Fokus – KO vs. KI mit einer spannenden Keynote und anschließender Podiumsdiskussion über die Thematik. All diese Veranstaltungen finden Sie in den Blogbeiträgen unter Veranstaltungen.

Externe Angebote

In unseren externen Angeboten finden Sie zusätzliche Angebote.

Unterricht & Leistungsbeurteilung

Der Umgang mit KI-Tools kann Studierende in ihren Lernprozessen unterstützen und diese individueller gestalten. Die KI kann beispielsweise als Study Buddy, sokratische Gegnerin oder Ideengeberin fungieren und eröffnet somit ein weites Spektrum an Möglichkeiten für Lernende. Studierende sollten aber auch beachten, dass KI-Programme nicht unfehlbar sind – es liegt an den Studierenden, alle Aussagen der KI-Tools auf ihre Richtigkeit zu überprüfen. Die Verwendung von KI in der Lehre wird von der Lehrperson im Rahmen der Rules for Tools definiert – der Gebrauch der Tools muss jedenfalls mit der Lehrperson abgestimmt werden.

Was die Erstellung schriftlicher Arbeiten betrifft, so dürfen von der KI erstellte Inhalte, die über die rein sprachliche Bearbeitung von Texten (z.B. Rechtschreibkorrektur, Umformulierung, Übersetzung) hinaus gehen, in schriftlichen Arbeiten nicht als eigener Text ausgegeben werden. Eine Verwendung in diesem Sinne gebietet die akademische Redlichkeit. Das Ausgeben von KI-generierten Inhalten als eigenen Text wird laut Prüfungsordnung dem Ghostwriting gleichgestellt.

Wenn Sie Studierende*r an der FH CAMPUS 02 sind und Fragen zur Verwendung von KI im Unterricht oder der Leistungsbeurteilung haben, wenden Sie sich an ihre*n Lektor*in oder Ihren Studiengang.

Empfehlungen für den Umgang mit KI finden Sie hier: https://www.campus02.at/wp-content/uploads/2023/08/Empfehlung-zum-Umgang-mit-KI-Studierende_010923.pdf

Chancen & Risiken

Chancen

Selbstgesteuertes Lernen: KI kann Studierenden helfen, ihre Lernprozesse zu steuern und zu organisieren, indem sie ihnen ermöglicht, ihren Fortschritt zu verfolgen und ihre Lernziele anzupassen.

Zugang zu globalen Ressourcen: KI kann den Studierenden Zugang zu einer Vielzahl von globalen Lernressourcen und -materialien bieten, was ihre Lernerfahrung bereichern kann.

Arbeitserleichterung: Repetitive Aufgaben können von der KI übernommen werden, beispielsweise können Transkriptionen von Audiodateien erstellt werden.

Textproduktion: KI kann helfen, sprachliche und inhaltliche Verbesserungen von Texten herbeizuführen.

Kreativität: KI kann im sokratischen Dialog helfen, Ideen zu vertiefen und zu verfeinern. Es besteht die Möglichkeit, viele Daten zusammenzufassen, Brainstorming zu betreiben und neue Kreationen in Text und Bild zu schaffen.

Qualität: Richtig angewendet kann die KI qualitativ hochwertige Produkte schaffen, die in diesem Detailgrad ohne diese Wochen oder Monate gedauert hätten.

Risiken

Falschaussagen und Plagiate: Häufig werden Falschaussagen generiert, Zitate erfunden und halluziniert. Studierende sind eigenverantwortlich für alle Leistungen, die sie einreichen, egal wie diese zustande kommen. Es kann zudem unwissentlich aus fremden Werten zitiert werden, sodass ein Plagiat vorliegen könnte.

Datenschutz: Es sollte vermieden werden, sensible und personenbezogene Daten in Systeme einzugeben, in denen der Datenschutz nicht gewährleistet ist. Die Daten in vielen Tools werden in Amerika verarbeitet und unterliegen niedrigeren datenschutzrechtlichen Standards.

Urheberrecht: Studierende müssen es vermeiden, urheberrechtlich geschützte Werke in Prompts einer KI einzugeben.

Biases: Anwendung von Stereotypen und Verringerung von Diversität

Digital Divide: Nicht alle Studierenden sind in der Lage, Premium-Funktionen von KIs zu erwerben und dadurch einen Vorteil zu erhalten. Lehrende müssen deshalb auf den Einsatz von Unterrichtsmethoden und Tools achten, die von allen Studierende mit den gleichen Chancen genutzt werden können.

Prüfungssituationen: Studierende können KI in bestimmten Prüfungssituationen anwenden. Leistungsbeurteilungsmethoden sollten angepasst werden.

Transparenz: Die Verarbeitung und Nutzung von Daten, die Art der Trainingsdaten und Datensets sind häufig nicht einsehbar oder nachvollziehbar (Black Box).


KI in der Forschung und Entwicklung:

Künstliche Intelligenz (KI) spielt eine zunehmend zentrale Rolle in der Forschung und Entwicklung (F&E) über verschiedene Disziplinen hinweg. Die wesentlichen Beiträge der KI in einer kurzen Übersicht:

  • Datenanalyse und -verarbeitung: KI-Systeme sind in der Lage, große Datenmengen schnell und effizient zu analysieren und zu verarbeiten. Dies ist besonders relevant in Bereichen wie der Genomik, der Klimaforschung und den Materialwissenschaften, wo enorme Datenvolumina anfallen.
  • Automatisierung von Routineaufgaben: In der F&E können viele repetitive Aufgaben durch KI automatisiert werden, einschließlich Laborarbeiten, Datenaufbereitung und Teile der Datenanalyse. Dies ermöglicht Forscher*innen, ihre Zeit auf kreative und komplexe Fragestellungen zu konzentrieren.
  • Entdeckung und Innovation: KI kann neue Muster und Zusammenhänge in Daten identifizieren, die für Menschen nicht offensichtlich sind. Dies hat bereits zu bedeutenden Entdeckungen in der Medizin, Chemie und Physik geführt. Beispielsweise wird KI zur Entwicklung und Prüfung neuer Medikamente verwendet.
  • Simulation und Modellierung: KI verbessert die Genauigkeit von Simulationen und Modellen, was für die Überprüfung von Hypothesen und die Vorhersage zukünftiger Entwicklungen in der F&E unerlässlich ist. Dies ist besonders nützlich in der Klimaforschung und bei der Entwicklung neuer Materialien.
  • Personalisierung und Optimierung: KI ermöglicht die Personalisierung von Lösungen, etwa durch maßgeschneiderte Behandlungen in der Medizin oder präzise Landwirtschaftstechniken. Optimierungsalgorithmen tragen zudem dazu bei, Prozesse effizienter zu gestalten und Ressourcen zu schonen.
  • Kooperation und Wissensmanagement: KI-gestützte Systeme verbessern die Zusammenarbeit zwischen Forscher*innen, indem sie den Zugang zu Informationen und die Kommunikation erleichtern. Wissensmanagementsysteme helfen dabei, Wissen zu speichern und zugänglich zu machen, was den Innovationsprozess beschleunigt.

Insgesamt beschleunigt und verbessert KI die Forschung und Entwicklung durch Effizienzsteigerungen und der Realisierung bisher zu komplexer Lösungswege.

Platine


KI braucht fundiertes Wissen, um in der F&E eingesetzt zu werden

Künstliche Intelligenz hat das Potenzial, die Forschung und Entwicklung erheblich zu transformieren, jedoch gibt es auch kritische Aspekte, die berücksichtigt werden müssen:

  • Datenqualität und Verzerrung: KI-Systeme sind stark abhängig von der Qualität und Quantität der verfügbaren Daten. Schlechte Datenqualität oder verzerrte Datensätze können zu fehlerhaften oder voreingenommenen Ergebnissen führen, was insbesondere in sensiblen Bereichen wie der medizinischen Forschung problematisch ist.
  • Erklärbarkeit und Transparenz: Viele KI-Modelle, insbesondere solche, die auf Deep Learning basieren, sind als „Black Boxes“ bekannt. Ihre Entscheidungen sind schwer nachvollziehbar, was das Vertrauen in und die Akzeptanz von wissenschaftliche/n und industrielle/n Anwendungen beeinträchtigen kann.
  • Abhängigkeit und Robustheit: Eine übermäßige Abhängigkeit von KI-Systemen kann zu Problemen führen, wenn diese ausfallen oder manipuliert werden. Die Robustheit und Sicherheit der KI-Infrastrukturen sind daher von entscheidender Bedeutung, um kontinuierliche und zuverlässige Forschungs- und Entwicklungsprozesse zu gewährleisten.

Zusammenfassend birgt KI neben Chancen für die F&E auch signifikante Risiken und Herausforderungen. Es ist daher entscheidend, diese kritisch zu evaluieren und das erforderliche Know-how aufzubauen, um das volle Potenzial von KI verantwortungsvoll und nachhaltig nutzen zu können.


KI in der F&E an der FH CAMPUS 02

Die Vorteile durch die Integration von KI Unterstützung in die Forschungsprozesse werden auch bei der FH CAMPUS 02 genutzt. In den verschiedenen Themenbereichen finden diese naturgemäß mit unterschiedlichsten Tools und Ausprägungen Anwendung.

Die klassischen Themen wie Machine Learning, Optimierungsaufgaben und auch Simulationsoptimierung findet sich in der Automation Technology wieder.

Im Innovationsbereich werden verschiedene KI-Tools zur Unterstützung von KMU im Innovationsprozess eingesetzt.

Im Themenfeld Rechnungswesen und Controlling werden verschiedenste Optionen analysiert, wie KI-Anwendungen die Aufgabestellungen von KMU in diesem Bereich unterstützen könnten.

Im Bereich Marketing und Sales gilt es, Datenanalysen KI gestützt zu optimieren (Web Crawling). Verschiedenste Trendanalysen werden ebenfalls immer stärker KI gestützt durchgeführt werden.

Im Schwerpunkt Business Informatics wird die KI zur Datenaufbereitung, Datenanalyse und Datensimulation eingesetzt. Diese Anwendungen auf Daten und Datenströme gelten grundsätzlich für alle Themenfelder quer über die fünf Departments.

EAS Lab


Rolle der KI am Beispiel des „Machine learning“:

Künstliche Intelligenz (KI) spielt eine fundamentale Rolle im Bereich des „Machine Learning“ (ML) und treibt dessen Fortschritte in folgenden Bereichen wesentlich voran, was zu präziseren, skalierbareren und anpassungsfähigeren ML-Anwendungen führt:

  • Modellentwicklung und -optimierung: KI-Techniken ermöglichen die Entwicklung und Optimierung komplexer ML-Modelle. Dies umfasst die Auswahl geeigneter Algorithmen, die Anpassung von Hyperparametern und die Verbesserung der Modellgenauigkeit durch Methoden wie neuronale Netze und Deep Learning.
  • Datenverarbeitung und -vorbereitung: KI automatisiert und verbessert die Datenverarbeitungsprozesse, einschließlich Datenbereinigung, Feature-Engineering und Datenaugmentation. Diese Prozesse sind entscheidende Grundlage für die Qualität und Leistungsfähigkeit der ML-Modelle.
  • Automatisiertes Lernen: Durch Techniken wie Reinforcement Learning und selbstüberwachtes Lernen können KI-Systeme aus großen Datenmengen und iterativen Prozessen lernen, ohne explizite Programmierung. Dies führt zu Modellen, die komplexe Aufgaben adaptiv und effizient lösen können.
  • Mustererkennung und Anomaliedetektion: KI-gestützte ML-Modelle sind besonders effektiv bei der Erkennung von Mustern und Anomalien in Daten. Dies ist von großer Bedeutung für Anwendungsbereiche wie Betrugserkennung, medizinische Diagnostik und prädiktive Wartung.
  • Skalierbarkeit und Effizienz: KI-Technologien verbessern die Skalierbarkeit von ML-Modellen und ermöglichen deren Einsatz in groß angelegten, datenintensiven Anwendungen. Parallelverarbeitung und verteiltes Lernen sind Schlüsseltechnologien, die durch KI optimiert werden.
Virtual Reality, Person steht mit AR Brille in einem Labor


Vocational Training

Die wissenschaftliche Weiterentwicklung im Einsatz von KI zur Unterstützung der Forschungsarbeiten findet in der Projektserie DIGIKOMP statt. Die Möglichkeiten der Einbindung von KI in die Themen der Forschungsschwerpunkte werden in diesem Projekt gescreent, getestet und entsprechend evaluiert, um mit der erforderlichen Zuverlässigkeit in die Forschungstätigkeit übernommen zu werden.

Alle Bilder wurden mit KI erstellt.

Artificial Intelligence

Contact for further information