What is consciousness? A new idea about what consciousness is and why we have it reveals how we could recreate it


part of this self-model may be particularly important for


Download 444.38 Kb.
Pdf ko'rish
bet2/2
Sana17.06.2023
Hajmi444.38 Kb.
#1525896
1   2
Bog'liq
What is consciousness


part of this self-model may be particularly important for 
consciousness. Here’s 
why. Too much information flows through the brain at any moment for it all to 
be processed in equal depth. To handle that problem, the system evolved a 
way to focus its resources and shift that focus strategically from object to 
object: from a nearby object to a distant sound, or to an internal event such as 
an emotion or memory. Attention is the main way the brain seizes on 
information and processes it deeply. To control its roving attention, the brain 
needs a model, which I call the attention schema.
Ghostly essence 
Our attention schema theory explains why people think there is a hard problem 
of consciousness at all. Efficiency requires the quickest and dirtiest model 
possible, so the attention schema leaves aside all the little details of signals 
and neurons and synapses. Instead, the brain describes a simplified version 
of itself, then reports this as a ghostly, nonphysical essence, a magical ability 
to mentally possess items. Introspection 
– or cognition accessing internal 


information 
– can never return any other answer. It is like a machine stuck in a 
logic loop. The attention schema is like a self-reflecting m
irror: it is the brain’s 
representation of how the brain represents things, and is a specific example of 
higherorder thought. In this account, consciousness isn’t so much an illusion 
as a self-caricature. 
A major advantage of this idea is that it gives a simple reason, straight from 
control engineering, for why the trait of consciousness would evolve in the first 
place. Without the ability to monitor and regulate your attention, you would be 
unable to control your actions in the world. That makes the attention schema 
essential for 
survival. Consciousness, in this view, isn’t just smoke and mirrors, 
but a crucial piece of the engine. It probably co-evolved with the ability to focus 
attention, just as the arm schema co-evolved with the arm. In which case, it 
would have originated as early as half a billion years ago 
Sometimes, the best way to understand a thing is to try to build it. According 
to this new idea we should be able to engineer human-like consciousness into 
a machine. It would require just four ingredients: artificial attention, a model of 
that attention, the right range of content (information about things like senses 
and emotions) and a sophisticated search engine to access the internal 
models and talk about them.
The first component, attention, is one of the most basic processes in most 
nervous systems. It is nicely described by the global workspace theory. If you 
look at an object such as an apple, the brain signals related to the apple may 
grow in strength and consistency. With sufficient attentional enhancement, 
these signals can reach a threshold where they 
achieve “ignition” and enter 
the global workspace. The visual information about the apple becomes 
available for systems around the brain, such as speech systems that allow you 
to talk about the apple, motor systems that allow you to reach for it, cognitive 
systems that allow you to make high-level decisions about it, and memory 
systems that allow you to store that moment for possible later use.
Scientists have already built artificial versions of attention, including at least 
a simple version of the global workspace. But these machines show no 
indication of consciousness. 
The second component that our conscious machine requires is an attention 
schema, the crucial internal model that describes attention in a general way, 
and in so doing informs the machine about consciousness. It depicts attention 
as an invisible property, a mind that can experience or take possession of 
items, something that in itself has no physical substance but still lurks privately 


inside an agent. Build that kind of attention schema, and you will have a 
machine that claims to be conscious in the same ways that people do.
The third component our machine needs is the vast stream of material that we 
associate with consciousness. Ironically, the hard problem 
– getting the 
machine to be conscious at all 
– may be the easy part, and giving the machine 
the range of material of which to be conscious may be the hard part. Efforts to 
build conscious content might begin with sensory input, especially vision
because so much is known about how sensory systems work in the brain and 
how they interact with attention. But a rich sensory consciousness on its own 
won’t be enough. Our machine should also be able to incorporate internal 
items such as abstract thought and emotion. Here the engineering problem 
becomes really tricky. Little is known about the information content in the brain 
that lies behind abstract thought and emotion, or how they intersect with the 
mechanisms of attention. Sorting out how to build a machine with that content 
could take decades. 

Download 444.38 Kb.

Do'stlaringiz bilan baham:
1   2




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling