Ich möchte zwei Ranking-Algorithmen vergleichen. In diesen Algorithmen gibt der Client einige Bedingungen bei seiner Suche an. Entsprechend den Anforderungen des Kunden sollte dieser Algorithmus jedem Element in der Datenbank eine Bewertung zuweisen und Elemente mit den höchsten Bewertungen abrufen.
Ich habe auf dieser Website verschiedene Themen zu meiner Frage gelesen und im Internet gesucht. Nach meinen Recherchen war der relevanteste Artikel, der einige Metriken zum Vergleichen von Ranking-Algorithmen erklärt, folgender: Brian McFee und Gert RG Lanckriet, Metric Learning to Rank, ICML 2010 ( https://bmcfee.github.io/papers/mlr .pdf ). Ich denke, Prec @ k, MAP, MRR und NDCG sind gute Metriken, aber ich habe ein Problem:
Mein Algorithmus sortiert die Ergebnisse, sodass das erste Element in meiner Ergebnisliste das beste mit der höchsten Punktzahl ist, das zweite Ergebnis die zweite höchste Punktzahl hat und so weiter. Ich beschränke meinen Suchalgorithmus darauf, zum Beispiel 5 beste Ergebnisse zu finden. Die Ergebnisse sind die 5 besten Elemente. Die Genauigkeit ist also 1. Wenn ich meine Suche einschränke, um das beste Ergebnis zu finden, findet es das beste. Auch hier wird die Präzision 1 sein. Das Problem ist jedoch, dass dies für Personen, die dieses Ergebnis sehen, nicht akzeptabel ist.
Was kann ich tun? Wie kann ich diese Algorithmen vergleichen und zeigen, dass einer besser ist als der andere?