The Onion (Warnung: Viele Artikel sind NSFW) ist eine satirische Nachrichtenorganisation, die traditionelle Nachrichtenmedien parodiert. 2014 startete The Onion ClickHole (Warnung: auch häufig NSFW), eine satirische Nachrichten-Website, die "Clickbait" -Seiten wie BuzzFeed parodiert. Dank Poes Gesetz lesen die Leute häufig die Schlagzeilen von Artikeln aus The Onion oder ClickHole und glauben, dass sie wahr sind, ohne zu wissen, dass sie als Satire gedacht sind. Das Gegenteil passiert auch mit lächerlich klingenden echten Nachrichten - die Leute denken oft, dass sie Satire sind, wenn sie es nicht sind.
Diese Verwirrung eignet sich natürlich für ein Spiel - versuchen Sie angesichts einer Schlagzeile zu erraten, ob es sich um eine Satire handelt oder nicht. Bei dieser Herausforderung geht es darum, genau das mit einem Programm zu tun.
Bei einer Nachrichtenüberschrift (eine Zeichenfolge, die nur aus druckbaren ASCII-Zeichen und Leerzeichen besteht) wird ausgegeben, 1
ob die Überschrift eine Satire ist oder 0
nicht. Ihre Punktzahl ist die Anzahl der korrekten Ausgaben geteilt durch die Gesamtzahl der Überschriften.
Wie üblich, Standard Lücken (vor allem der Optimierung für die Testfälle ) ist nicht erlaubt. Um dies durchzusetzen, werde ich Ihre Programme auf einem Satz von 200 versteckten Testfällen ausführen (100 von The Onion, 100 von Not The Onion). Ihre Lösung darf nicht mehr als 20 Prozentpunkte unter Ihrer Punktzahl in den öffentlichen Testfällen liegen, um gültig zu sein.
Testfälle
Um Testfälle für diese Herausforderung zu erstellen , habe ich 25 Überschriften aus dem Subreddit The Onion (wo Artikel von The Onion und seinen untergeordneten Websites wie ClickHole veröffentlicht werden) und 25 Überschriften aus dem Subreddit Not The Onion (wo echte Nachrichtenartikel ausgewählt wurden) ausgewählt das klingt wie Satire sind gepostet). Die einzigen Änderungen, die ich an den Überschriften vorgenommen habe, waren das Ersetzen "ausgefallener" Anführungszeichen durch reguläre ASCII-Anführungszeichen und die Standardisierung der Großschreibung - alles andere bleibt gegenüber der Überschrift des Originalartikels unverändert. Jede Überschrift steht in einer eigenen Zeile.
Die Zwiebel Schlagzeilen
Trump Warns Removing Confederate Statues Could Be Slippery Slope To Eliminating Racism Entirely
'No Way To Prevent This,' Says Only Nation Where This Regularly Happens
My Doctor Told Me I Should Vaccinate My Children, But Then Someone Much Louder Than My Doctor Told Me I Shouldn't
Man At Park Who Set Up Table Full Of Water Cups Has No Idea How Passing Marathon Runners Got Impression They Can Take Them
This Child Would Have Turned 6 Today If His Mother Hadn't Given Birth To Him In October
Incredible Realism: The Campaign In The Next 'Call Of Duty' Will Begin At Your Avatar's High School Cafeteria When He's Being Tricked Into Joining The Military By A Recruiter
'Sometimes Things Have To Get Worse Before They Get Better,' Says Man Who Accidentally Turned Shower Knob Wrong Way
Report: Uttering Phrase 'Easy Does It' Prevents 78% Of Drywall Damage While Moving Furniture
Barbara Bush Passes Away Surrounded By Loved Ones, Jeb
Family Has Way Too Many Daughters For Them Not To Have Been Trying For Son
News: Privacy Win! Facebook Is Adding A 'Protect My Data' Button That Does Nothing But Feels Good To Press
Dalai Lama Announces Next Life To Be His Last Before Retirement
Researchers Find Decline In Facebook Use Could Be Directly Linked To Desire To Be Happy, Fully Functioning Person
Manager Of Combination Taco Bell/KFC Secretly Considers It Mostly A Taco Bell
Trump: 'It's My Honor To Deliver The First-Ever State Of The Union'
Daring To Dream: Jeff Bezos Is Standing Outside A Guitar Center Gazing Longingly At A $200 Billion Guitar
Area Dad Looking To Get Average Phone Call With Adult Son Down To 47.5 Seconds
Experts Warn Beef Could Act As Gateway Meat To Human Flesh
Jeff Bezos Named Amazon Employee Of The Month
Dad Suggests Arriving At Airport 14 Hours Early
Report: Only 3% Of Conversations Actually Need To Happen
Delta Pilot Refuses To Land Until Gun Control Legislation Passed
Family Wishes Dad Could Find Healthier Way To Express Emotions Than Bursting Into Full-Blown Musical Number
New Honda Commercial Openly Says Your Kids Will Die In A Car Crash If You Buy A Different Brand
Teacher Frustrated No One In Beginner Yoga Class Can Focus Chakras Into Energy Blast
Nicht die Zwiebel Schlagzeilen
Man Rescued From Taliban Didn't Believe Donald Trump Was President
Nat Geo Hires Jeff Goldblum To Walk Around, Being Professionally Fascinated By Things
Mike Pence Once Ratted Out His Fraternity Brothers For Having A Keg
Reddit CEO Tells User, "We Are Not The Thought Police," Then Suspends That User
Trump Dedicates Golf Trophy To Hurricane Victims
Uber's Search For A Female CEO Has Been Narrowed Down To 3 Men
ICE Director: ICE Can't Be Compared To Nazis Since We're Just Following Orders
Passenger Turned Away From Two Flights After Wearing 10 Layers Of Clothing To Avoid Luggage Fee
Somali Militant Group Al-Shabaab Announces Ban On Single-Use Plastic Bags
UPS Loses Family's $846k Inheritance, Offers To Refund $32 Shipping Fee
Teen Suspended From High School After Her Anti-Bullying Video Hurts Principal's Feelings
Alabama Lawmaker: We Shouldn't Arm Teachers Because Most Are Women
Cat Named After Notorious B.I.G. Shot Multiple Times - And Survives
EPA Head Says He Needs To Fly First Class Because People Are Mean To Him In Coach
Apology After Japanese Train Departs 20 Seconds Early
Justin Bieber Banned From China In Order To 'Purify' Nation
Alcohol Level In Air At Fraternity Party Registers On Breathalyzer
NPR Tweets The Declaration Of Independence, And People Freak Out About A 'Revolution'
Man Who Mowed Lawn With Tornado Behind Him Says He 'Was Keeping An Eye On It.'
After Eating Chipotle For 500 Days, An Ohio Man Says He's Ready For Something New
'El Chapo' Promises Not To Kill Any Jurors From Upcoming Federal Trial
After 4th DWI, Man Argues Legal Limit Discriminates Against Alcoholics
Palestinian Judge Bans Divorce During Ramadan Because 'People Make Hasty Decisions When They're Hungry'
Argentinian Officers Fired After Claiming Mice Ate Half A Ton Of Missing Marijuana
'Nobody Kill Anybody': Murder-Free Weekend Urged In Baltimore
Your score will be the number of correct outputs divided by the total number of headlines
Ist Bytecount ein Tie Breaker?/ly\b/
was nur funktioniert, weil die 25 Zwiebel-Schlagzeilen, die Sie ausgewählt haben, mehr Adverbien enthalten, aber soweit ich weiß, können Sie sie leicht mit einer anderen Testbatterie auslösen. Und wer soll sagen, dass seine Koeffizienten nicht ausgewählt wurden, um seine Punktzahl zu optimieren? (Warum sollte er sie nicht optimieren?)brain.js
und LSTM zu trainieren , mit Beispielen in dieser Ausgabe und 100 anderen Beispielen jedes Typs von bereitgestellten Links, aber das Ergebnis war nicht gut genug mit neuen Titeln, die nicht in Trainingssätzen vorhanden waren . Ich bin fertig: PAntworten:
JavaScript (ES7), 39/50 (78%)
63,5% (127/200) bei versteckten Testfällen
Eine einfache Heuristik, die auf der Länge des Titels, der Anzahl der Leerzeichen und der Verwendung des
-ly
Suffix basiert .Probieren Sie es online aus!
quelle
Python 3, 84%
Ungetestet für versteckte Testfälle.
Dies verwendet Keras LSTM RNN, das in verschiedenen Überschriften trainiert wurde. Um es auszuführen, benötigen Sie Keras Folgendes und das Modell, das ich auf GitHub zur Verfügung gestellt habe: Repo-Link . Sie benötigen das Modell
.h5
und die Wort- / Vektorzuordnungen sind in.pkl
. Das NeuesteDie Abhängigkeiten sind:
Die Einstellungen sind:
Das Modell ist:
Laden Sie nun das Modell und die Worteinbettungen:
Und der Code zum Testen, ob eine Zeichenfolge aus 'NotTheOnion' oder 'TheOnion' stammt Ich habe eine schnelle Hilfsfunktion geschrieben, die die Zeichenfolge in die entsprechenden Worteinbettungen konvertiert:
Erläuterung
Dieser Code führt ein Modell aus, das die Beziehungen zwischen Wörtern analysiert, indem die Wörter als "Vektor" dargestellt werden. Weitere Informationen zum Einbetten von Wörtern finden Sie hier .
Dies wird auf Schlagzeilen trainiert, aber die Testfälle sind ausgeschlossen .
Dieser Prozess wird nach einigem Verarbeiten automatisiert. Ich habe die endgültige Liste der verarbeiteten Wörter als verteilt,
.pkl
aber beim Einbetten von Wörtern analysieren wir zuerst den Satz und isolieren die Wörter.Nachdem wir nun die Wörter haben, besteht der nächste Schritt darin, die Unterschiede und Ähnlichkeiten zwischen bestimmten Wörtern zu verstehen, z . B.
king
undqueen
versusduke
undduchess
. Diese Einbettungen finden nicht zwischen den tatsächlichen Wörtern statt, sondern zwischen Zahlen, die die Wörter darstellen, die in der.pkl
Datei gespeichert sind . Wörter, die die Maschine nicht versteht, werden einem speziellen Wort zugeordnet<UNK>
, wodurch wir verstehen können, dass es dort ein Wort gibt, aber nicht genau bekannt ist, was die Bedeutung ist.Nachdem die Wörter verstanden werden können, muss die Wortfolge (Überschrift) analysiert werden können. Dies ist, was 'LSTM' tut, ein LTSM ist eine Art 'RNN'-Zelle, die den verschwindenden Gradienteneffekt vermeidet. Einfacher gesagt, es nimmt eine Folge von Wörtern auf und ermöglicht es uns, Beziehungen zwischen ihnen zu finden.
Jetzt ist die letzte Ebene,
Dense
was im Grunde bedeutet, dass sie wie ein Array ist, was bedeutet, dass die Ausgabe wie folgt lautet :[probability_is_not_onion, probability_is_onion]
. Indem wir herausfinden, welches größer ist, können wir auswählen, welches das sicherste Ergebnis für die gegebene Überschrift ist.quelle
Python 3 + Keras, 41/50 = 82%
83% (166/200) bei versteckten Testfällen
combined.h5
undvocabulary.json
kann von hier (sehr groß) und hier abgerufen werden .Vollständig verbundener Klassifikator, verbunden mit einem vorab trainierten Stimmungsanalysemodell DeepMoji, das aus gestapelten bidirektionalen LSTMs und einem Aufmerksamkeitsmechanismus besteht. Ich habe die DeepMoji-Ebenen eingefroren und die letzte Softmax-Ebene herausgenommen, nur die vollständig verbundenen Ebenen trainiert, dann die DeepMoji-Ebenen aufgefroren und sie gemeinsam für die Feinabstimmung trainiert. Der Aufmerksamkeitsmechanismus stammt von https://github.com/bfelbo/DeepMoji/blob/master/deepmoji/attlayer.py (ich wollte nicht den gesamten Code als Abhängigkeit für eine Klasse verwenden müssen, zumal dies der Fall ist Python 2 und eher unhandlich als Modul zu verwenden ...)
Dies ist bei Megos Testsatz überraschend schlecht, wenn man bedenkt, dass bei meinem eigenen größeren Validierungssatz> 90% erreicht werden. Damit bin ich noch nicht fertig.
quelle
JavaScript ( Node.js ), 98% (49/50)
96% (192/200) bei versteckten Testfällen
Dies erfordert zwei große JSON-Dateien, die ich hier oder auf "TiO" nicht ablegen kann. Bitte laden Sie sie von den folgenden Links und sie mit den Speichern
words.json
undbags.json
Namen, in dem gleichen Ordner wie JS - Datei. Es gibt auch einen Link für eine JS-Datei mit Testfällen und Ergebnis / Prozent Druck. Sie können Ihre versteckten Testfälle inonions
undnonOnions
Variablen einfügen.Führen Sie nach dem Speichern aller 3 Dateien im selben Verzeichnis aus
node onion.js
.Die
O
Funktion wird zurückgegeben,true
wenn es sich um eine Zwiebel handelt undfalse
wenn dies nicht der Fall ist. Verwendet eine große Liste von Wortbeuteln (ohne Reihenfolge), um festzustellen, ob die Eingabezeichenfolge Zwiebel ist. Art hartcodiert, funktioniert aber sehr gut bei einer Vielzahl von zufälligen Testfällen.quelle
Arnauld's Lösung abarbeiten
JavaScript (ES6), 41/50
64% (128/200) bei versteckten Testfällen
JavaScript (ES6), 42/50
62,5% (125/200) bei versteckten Testfällen (ungültig)
Das Konzept Länge + Wortanzahl + "Ly" funktioniert ziemlich gut. Ich konnte ein paar weitere Punkte herausgreifen, indem ich nach dem Wort "Dad" suchte (wann sprechen echte Artikel über die Väter der Leute in der dritten Person im Titel?) Und Ein zusätzlicher Punkt durch Ändern der "ly" -Suchheuristik und Überprüfen des Vorhandenseins von Zahlen im Titel (was im allgemeinen Fall außerhalb des Tests möglicherweise weniger gültig ist, sodass ich beide Lösungen belassen habe).
quelle