Dessa 3 vetenskapsmetri kan kategorisera Radiohead bättre än Spotifys genrer

Radiohead - In Rainbows From the Basement (April 2008) At Home #WithMe

Radiohead - In Rainbows From the Basement (April 2008) At Home #WithMe
Anonim

Musikkritiker skyr regelbundet Thesaurus.com för de bästa adjektiven att kasta in sina perfekt beskrivande melodiska förkunskaper på de senaste verk från Drake, Radiohead eller vem som helst. Och lyssnarna på alla promenader har sedan starten av själva musiken blivit skyldig till lata artiga konstnärer i många socialt konstruerade genrer. Men allt detta kan (och borde) kastas ut genom fönstret nu, för ny forskning tyder på att för att perfekt matcha musik till en lyssnarens personlighet är allt du behöver är dessa tre vetenskapliga mätningar.

I en studie med titeln "Låten är du: Preferenser för musikaliska attributdimensioner reflekterar personlighet", publicerad i Socialpsykologisk och personlighetsvetenskap, förklarar forskare från McGill, Cambridge och Stanford att de psykologiska effekterna av musik alla passar in i kategorierna upphetsning, valens och djup.

"Genrer definieras i huvudsak av sociala element och industri, men det vi vill flytta till är de faktiska egenskaperna i musik som människor föredrar och har en känslomässig reaktion på", David Greenberg, en ledande författare till studien och musikpsykolog vid Cambridge University och City University of New York, berättar Omvänd.

I stället för att klassificera musik efter genre, studerar studien: upphetsning, musikens energi och intensitet; valens, den emotionella tonen från glad till ledsen; och djup, musikens intellektuella sofistikering. Specifika låtar och artister kan falla någonstans på spektret mätt av de tre kvaliteterna, eller en sång kan vara så överväldigande beat-driven eller känslomässigt ärr att den passar perfekt i en kategori.

Detta tyder på att en långsam, introspektiv gospelsång från Chance Rappers kommande album skulle kunna ha samma djup som ett spår från Radiohead s En måneformad pool. Så ett system för kategorisering baserad på Greenbergs forskning skulle överraskande men rättvist placera rap- och rockarbeten i samma fack.

Greenberg säger att kategorisering av musik som använder dessa tre kategorier kan få stora konsekvenser inom industrin och forskningen. Musikterapeuter kan påskynda återhämtningstiderna för patienter, och streaming av musikktjänster som Spotify, Pandora, YouTube och Google Play Music kan alla dra nytta av att analysera dessa tre kategorier i sina egna prediktiva musikfyndighetsalgoritmer.

Teoretiskt kan strömmande tjänster uppmana användarna att ta ett personlighetsprov och ha bättre, mer emotionellt slående levererad musik. Tjänster som Apple Music och Google Play uppmanar redan nya användare att välja en serie artister för att bättre formulera en algoritm för musiksmak, varför varför inte ta det ett steg längre?

Greenberg erbjuder redan ett omfattande offentligt online-test som identifierar en persons musikperspektiv. Det bygger på en väl ansedd psykologisk modell som kallas Femfaktormodellen, som mäter öppenhet för erfarenhet, samvetsgrannhet, extraversion, överensstämmelse och neurotik.

"Folk som hade hög öppenhet att uppleva föredrog … djupet i musik, så de tittade på kvaliteter som var mer sofistikerade och komplexa", säger Greenberg. "Å andra sidan föredrog personer som var höga på neurotikan mer intensitet i musik."

Forskningen fann också att musik som är mer personlig för lyssnaren framkallar ett mer emotionellt svar. En hvilken som helst musiklyssnare kunde förmodligen ha kommit med samma teori själva, men det är bra att få forskningen att säkerhetskopiera. Det är precis som Joni Mitchell sa i en intervju från 2013 med CBC: "Tricket är om du lyssnar på den musiken och du ser mig, du får inget ut av det. Om du lyssnar på den där musiken och ser dig själv, kommer det förmodligen att få dig att gråta och du lär dig något om dig själv och nu får du något ut av det."