Under de tidiga dagarna av forskning om artificiell intelligens stod forskare inför ett problem. De hade arbetat med att skapa maskiner som kunde tänka och lära som människor, men insåg snabbt att traditionella datorer, med sina stela digitala logiska grindar och binära system, inte var väl lämpade för uppgiften. De var kraftfulla, men oflexibla och oförmögna att anpassa sig till nya situationer.
Det var då som forskare började titta på den mänskliga hjärnan för inspiration. Fascinerade av dess förmåga att bearbeta stora mängder information och anpassa sig till nya situationer började de studera dess inre funktioner. De fann att hjärnan består av miljarder sammankopplade celler som kallas neuroner som kommunicerar med varandra på mycket dynamiska och adaptiva sätt.
De hjärnan bearbetar information genom ett komplext nätverk av neuroner – celler som kan överföra elektriska och kemiska signaler.
Det första steget av informationsbehandling kallas sensation. Det innebär omvandling av yttre stimuli som ljus, ljud och beröring till elektriska impulser av sensoriska neuroner. De elektriska impulserna överförs sedan till primära bearbetningsområden i hjärnan, såsom den primära visuella cortex, som bearbetar visuell information, och den primära hörselbarken, som bearbetar hörselinformation.
Nästa steg är perception och innebär att organisera och förstå de impulser som tas emot från sensoriska neuroner. För att göra detta använder hjärnan en mängd olika strategier, inklusive att gruppera liknande stimuli och avvisa irrelevant information.
Slutligen följer kognition – processen av tänkande, resonemang och problemlösning – och handling perception. Hjärnan använder informationen den har tagit emot och bearbetat för att fatta beslut, planera handlingar och bilda minnen eller för att initiera ett svar eller beteende.
Även om denna process kan verka sekventiell, arbetar olika regioner i hjärnan tillsammans för att bearbeta inkommande information och hjärnans bearbetningsmekanism kan ses som en typ av parallell beräkning. Datavetare har traditionellt använt neurala nätverk för att försöka efterlikna denna process. Dessa är algoritmer som använder sammankopplade noder för att bearbeta information på det sätt som hjärnan gör.
Medan den mänskliga hjärnan fortfarande är en gåta, uppstod idén om neuromorf beräkning från vad vi förstår om hur hjärnan fungerar. Till skillnad från traditionella datorer, som använder Von Neumann-arkitekturen, använder neuromorfa datorer en parallellt distribuerad arkitektur som är mer lik den mänskliga hjärnan. De använder ny, specialutvecklad hårdvara och mjukvara för att de ska kunna bearbeta information på ett mer biologiskt realistiskt sätt. Detta gör att neuromorfa datorer kan utföra vissa uppgifter mer effektivt, inklusive att bearbeta och analysera stora mängder data i realtid, vilket gör dem väl lämpade för uppgifter som bild- och taligenkänning.
Den vanligaste formen av neuromorft material är spiked neural network (SNN). I denna typ av hårdvara bearbetar och håller noder eller spetsade neuroner data och kommunicerar med varandra som biologiska neuroner, snarare än att använda digitala logiska grindar. Detta skiljer sig från traditionell datorhårdvara, som förlitar sig på transistorer som bara kan vara i ett av två tillstånd: på eller av. Neuromorfa datorer utnyttjar också nya typer av minne som kan lagra information mer flexibelt.
En av de främsta fördelarna med neuromorfisk datoranvändning är energieffektivitet. Traditionella datorer förbrukar mycket ström eftersom de hela tiden måste slå på och av transistorer. Neuromorfa datorer kan utföra vissa uppgifter med mycket mindre energi eftersom de fungerar mer som den mänskliga hjärnan – ett organ som kan utföra 100 biljoner beräkningar per sekund använder sig av 12 watt effekt — mindre än vad som används av de flesta moderna glödlampor. Medan några av de snabbaste superdatorerna i världen nu kan matcha hjärnan när det gäller bearbetningshastighet, kräver de över 10 000 kvadratmeter yta och kan använda mycket mer 15 megawatt effekt – ungefär den mängd ström som behövs för 13 500 amerikanska hem. Neuromorfa datorer är det å andra sidan sexton gånger mer energieffektiv för stora nätverk för djupinlärning än annan AI-hårdvara,
Neuromorphic computing har också fördelen med att kunna hantera osäkerhet och buller. Traditionella datorer är inte väl lämpade för uppgifter som innebär mycket osäkerhet eftersom de förlitar sig på exakta beräkningar. Neuromorfa datorer kan hantera osäkerhet och buller eftersom de är modellerade efter hjärnan, som kan bearbeta information även i närvaro av dessa faktorer.
Idag är neuromorfisk datoranvändning ett växande område, med potential att revolutionera ett brett spektrum av industrier och applikationer. Forskare har gjort betydande framsteg i att skapa kraftfulla neuromorfa chips och utveckla mjukvara som kan köras på dem och neuromorphic computing används för att skapa intelligenta maskiner som kan bearbeta information mer effektivt och anpassa sig till nya situationer på ett sätt som traditionella datorer inte kan. Det öppnar för nya möjligheter inom artificiell intelligens och för oss närmare än någonsin att efterlikna hjärnans anmärkningsvärda förmågor.