Der Artikel untersucht, welche Beispiele am meisten zum kontrastiven selbstüberwachten Lernen beitragen. Die Autoren zeigen, dass die Beispiele, die am meisten zum kontrastiven Lernen beitragen, diejenigen sind, die die ähnlichsten Augmentierungen zu anderen Beispielen in ihrer Klasse haben. Diese Beispiele sorgen dafür, dass die Darstellungen innerhalb einer Klasse gut ausgerichtet sind und die Darstellungen verschiedener Klassen gut getrennt sind.
Die Autoren beweisen, dass solche Beispiele die Ausrichtung und Divergenz der Klassenrepräsentationen, die durch kontrastives Lernen auf dem gesamten Datensatz gelernt werden, gut erhalten. Basierend darauf zeigen sie, dass das Lernen auf Teilmengen, die diese Eigenschaften erfüllen, ähnliche Generalisierungsleistungen wie das Lernen auf dem gesamten Datensatz erbringt.
Interessanterweise stellen die Autoren fest, dass die Beispiele, die am meisten zum kontrastiven Lernen beitragen, diejenigen sind, die am wenigsten zum überwachten Lernen beitragen. Einfache Beispiele mit hoher Konfidenz und geringer Vergessensrate tragen am meisten zum kontrastiven Lernen bei, während schwierige Beispiele, die am meisten zum überwachten Lernen beitragen, das kontrastive Lernen beeinträchtigen können.
Die Autoren evaluieren ihre Methode SAS, die Teilmengen findet, die die Augmentationsähnlichkeit maximieren, auf verschiedenen Datensätzen und Methoden des kontrastiven Lernens. Sie zeigen, dass SAS-Teilmengen die Leistung auf Downstream-Aufgaben im Vergleich zu zufälligen Teilmengen um über 3% verbessern können. Außerdem können mit SAS 20-40% der Beispiele ohne Leistungseinbußen ausgelassen werden.
Başka Bir Dile
kaynak içeriğinden
arxiv.org
Önemli Bilgiler Şuradan Elde Edildi
by Siddharth Jo... : arxiv.org 03-14-2024
https://arxiv.org/pdf/2302.09195.pdfDaha Derin Sorular