‚Katastrophales Übertraining‘ könnte großen Sprach-KI-Modellen schaden, die auf mehr Daten zum Training trainiert werden.
Forscher von Top-US-Universitäten warnen davor, dass eine Verlängerung des Vor-Trainings die Leistung beeinträchtigen kann. Zu viel Vor-Training kann zu einer schlechteren Leistung führen, aufgrund von etwas Ähnlichem wie dem Schmetterlingseffekt. Je mehr sie vor-trainiert sind, desto sensibler werden sie für kleine Änderungen, die das Endergebnis stören könnten. Forscher von Carnegie Mellon, Stanford, Harvard und Princeton … Weiterlesen