Universität Luzern: Verantwortung bei KI-generierten Texten
Wie die Universität Luzern mitteilt, zeigt die Studie «Asymmetrie» die Anerkennung und Verantwortung bei KI-generierten Texten und macht Empfehlungen.
Ein neuer Beitrag der internationalen Zeitschrift «Nature Machine Intelligence» diskutiert ethisch-rechtliche Herausforderungen von Sprachmodellen, sogenannten Large Language Models (LLMs), wie ChatGPT.
Dieser zeigt auf, dass der Einsatz von LLMs sowohl positive als auch negative Folgen haben kann, jedoch unterschiedliche Standards bestehen, wie Anerkennung beziehungsweise Verantwortung in diesen Fällen zugeschrieben werden.
Um diese Asymmetrie bei der Zuschreibung von Anerkennung und Verantwortung zu beseitigen, gibt der von Monika Plozza von der Universität Luzern mitverfasste Beitrag einige Empfehlungen ab.
Dazu gehört es, die Verwendung von LLMs bei der Erstellung von Texten transparent zu machen, Verantwortungslücken zu beseitigen und die Kriterien zur Definition der Autorenschaft zu verbessern.