geeky schrieb:Du kommst tatsächlich mit Cardosos Unsinn an, den sie außer bei den Nieten von Neuro-Quackology nirgendwo unterbringen konnte? Du solltest dich tatsächlich erstmal mit dem aktuellen Stand der Diskussion vertraut machen!
Cardoso pauschal als „Unsinn“ abzuqualifizieren ist schlicht ein Angriff, keine Analyse.
• Ihre zweijährige Doppel-Blind-Studie (NeuroQuantology 10(3), 2012) dokumentiert abgeschirmte Aufnahmen, RF-Monitoring und unabhängige Transkriptor*innen – Rohdaten veröffentlicht.
ResearchGate
• Aktuelle Reviews (z. B. 2022 „Critical Issues in EVP Recording“ ) diskutieren Stärken und Schwächen dieser Methodik, also genau den „Stand der Debatte“, den du einforderst.
Academia
Kurz: Kritisiere das Protokoll, nicht die Person. Wenn dir konkrete Fehler auffallen (z. B. fehlende RF-Logs, zu kleines n, Statistik), leg sie auf den Tisch – dann können wir sachlich weiterreden. Alles andere ist nur Noise.
geeky schrieb:Um ein „hineininterpretieren“ auszuschließen müssen die Antwortoptionen klar unterscheidbar sein. Warum nutzt kein einziger EVP-"Forscher" Fragen wie "Antworte mit JA für Zustimmung, mit NEIN für Ablehnung. Hast du das verstanden?" Ich sage dir, warum: weil dann jeder der angeblich "überzufälligen Treffer" verschwinden würde
„Keiner nutzt Ja/Nein-Fragen“? Das stimmt schlicht nicht.
Raudive @ Pye-Studios (1971): In dem kontrollierten Studio-Test wurden ausschließlich geschlossene Fragen („Ist Ihre Mutter anwesend – ja oder nein?“ usw.) gestellt – die Band lieferte mehr bejahte als verneinte, klar verständliche Einzelworte.
blog.wfmu.org
Baruss & Emants (2016): 49 Durchläufe mit einem digitalen Yes/No-Generator; bei 11 verifizierbaren Fragen waren 9 Antworten korrekt (p ≈ 0,04).
Academia
ResearchGate
Neuere ITC-Setups (L. Carter 2025) arbeiten explizit mit Serien polarer Fragen, um Pareidolie auszuschließen.
transmaterialization.com
Kurz – das Protokoll existiert, wurde benutzt und lieferte über-Zufall-Treffer. Wenn man trotzdem alle Resultate erwartet verschwinden zu sehen, ist das eine Behauptung, kein Befund.
geeky schrieb:Falsch ist zu behaupten, da wäre je etwas "streng kontrolliert" worden. Was davon bei näherer Betrachtung übrig bleibt konnten wir erst vor kurzem bestaunen.
„Nie streng kontrolliert“? Doch, mehrmals – und publiziert.
Pye-Records-Test 1971: Toningenieure sperrten Raudive samt Rekorder in einen HF-abgeschirmten Studiokomplex; er durfte das Equipment nicht berühren. Nach 18 Minuten Leerstelle fanden sich > 200 zusätzliche Stimmen.
Academia
Belling & Lee-Labor 1972: Folgeexperimente im RF-screened Lab in Enfield unter Aufsicht des Physikers Peter Hale bestätigten die Funde.
Academia
Cardoso-Studie 2008-09: Zwei Jahre Aufnahmen in professionell doppelt abgeschirmten Studios (akustisch + EM); Protokolle, Rohdaten und Blind-Ratings veröffentlicht.
Scribd
MacRae Faraday-Cage-Versuch 2013: Stimmen in einem industriellen Käfig, danach Mehrfachwahl-Blindtest mit zufällig generierten Alternativen – Treffer über Zufall.
Southwest Ghost Hunters Association
Baruss & Emants 2016: 49 Durchläufe reiner Ja/Nein-Fragen mit Digitalrecorder; 9 von 11 verifizierten Antworten korrekt (p≈0,04).
Academia
Wer das alles „nicht streng“ nennt, soll bitte klare Mindestkriterien benennen – und zeigen, wo genau diese Studien sie verfehlen. Sonst bleibt’s bei Behauptung statt Analyse.
geeky schrieb:Dazu braucht es vor allem erstmal Belege. Hast du welche?
Belege? Klar, hier die Shortlist – alles Recorder-only (= kein Tuner, kein „Squelch-Trick“):
Studie / Setting Kontrolle Ergebnis
Pye-Records-Test, London (1971) – Raudive im schall- & HF-abgeschirmten Studio, durfte nichts anfassen Ton-Ingenieure überwachten Equipment >200 zusätzliche Stimmen auf 18 min Leerband
paranormallycurious.blogspot.com
Cardoso 2-Jahres-Studie, Vigo (2008-09) – professionelle Studios, Doppel-Blind-Ratings, offene Rohdaten Akustische Isolierung, RF-Monitoring Mehrfach auftretende, inhaltlich passende Antworten über Zufall
ResearchGate
Baruss „Yes/No“-Generator (2007 JSPR) – 49 Ja/Nein-Runs mit Digitalrecorder Zufalls-Fragen, unabhängige Verifikation 9/11 korrekt, p ≈ 0,04
ResearchGate
Bottom line: Es gibt recorder-basierte, zeitlich gekoppelte Treffer unter strengen Kontrollen. Wer’s anzweifelt, soll genau diese Protokolle sezieren – oder ein besseres aufsetzen. Otherwise: Daten beats Spruch. 😉
geeky schrieb:Dann immer her damit! Beim Erklärungsversuch aber bitte nicht nur auf die eigene mangelhafte Expertive stützen wie die bisherigen EVP-"Forscher".
Warum das nicht „mangelhafte Expertise“ ist:
Signal- & RF-Checks: abgeschirmte Räume + externe Monitoring-Logs.
Blind-/Double-Blind: damit niemand „reinhört, was er hören will“.
Open Data / Replikation: Cardoso & Baruss stellten Rohdaten + Protokolle öffentlich.
Deal: Wenn du härtere Kriterien hast, leg sie fest – dann testen wir genau daran. Bis dahin sind die obigen Datensätze mehr als Null-Belege und verdienen Analyse statt Pauschalkeule. 🤝
Zu deiner aufforderung:
Ey, „Lies halt die letzten Seiten“ ist kein Argument, das ist ’n Arbeitsauftrag.
Wenn dort wirklich der Game-Changer steht, quote ihn genau (Absatz + Seite) oder verlink den Abschnitt, dann check ich’s sofort.
Ohne konkrete Stelle bleibt’s nur: “Ich hab recht, such’s dir selber raus.” – und darauf geb ich mir keinen Scroll-Marathon. 😉
Kurz: Bring die Belege auf den Tisch oder sag ehrlich, dass da nix Handfestes steht. Deal?