Виктор Аллахвердов - Методологическое путешествие по океану бессознательного к таинственному острову сознания
Третий вариант объяснения гласит: фиксация следа в памяти происходит мгновенно и навсегда. Ни дискретного, ни непрерывного угасания не происходит. А.Н. Леонтьев, заявлял, что однажды созданные следы вообще не могут исчезать: "Все дело в том, что меняется возможность воспроизведения, а след существует независимо. Раз он образовался, то он существует. Это необратимый процесс – следообразование. Припоминание – вот где проблема стоит».[164] В этом варианте объяснения заучивание необходимо лишь для формирования программы воспроизведения этого следа. (Если выразить эту идею в компьютерных терминах, то речь идёт о том, что файл с поступившей информацией всегда сохраняется автоматически, а вот имя файла – или, что то же самое, программа поиска этого файла – требует специального «упрочения»). Такой вариант объяснения согласуется с некоторыми приведенными выше фактами, ибо для согласования с ними и был придуман. Но, с логической точки зрения, он вызывает ещё более глубокие сомнения. Зачем вообще надо забывать программу воспроизведения следа? Почему одни программы воспроизведения запоминаются сразу и прочно, а другие – нет?
Если программа поиска/воспроизведения постепенно формируется (непрерывное упрочение), то чтό это значит? Ведь если, например, при предъявлении ряда для запоминания сформирована только какая-то часть программы поиска этого ряда в памяти, то ни один когнитивный механизм этот самый ряд уже никогда не сможет найти. Следовательно, он не сможет и при последующем предъявлении сформировать оставшуюся часть программы, поскольку не знает, где искать сохраненную информацию. Ему остаётся только снова сохранить информацию и создать новую программу поиска. В чём тогда проявляется заучивание, последовательно обеспечивающее все лучшее воспроизведение? Как принимается решение, какие именно программы воспроизведения надо упрочивать? Но и это ещё отнюдь не все неразрешимые проблемы для рассматриваемой версии.
Что понимается под воспроизведением? Разработаны различные методы проверки сохранения в памяти информации. Приведу лишь малую толику из них: метод последовательных воспроизведений (многократное предъявление в постоянном темпе определенного материала и после каждого предъявления воспроизведение в памяти удержанных элементов); метод узнавания (элементы материала, подлежащие заучиванию, располагаются в ином порядке среди других сходных элементов; задача испытуемого узнать те элементы, которые были ранее предъявлены); метод сбережения, о нём уже только что поминалось; метод реконструкции (предъявленные элементы располагаются в другом порядке, а испытуемый должен восстановить первоначальный); метод отсутствующего члена (испытуемому предъявляются все элементы, кроме одного, а задача испытуемого – назвать тот элемент ряда, который не предъявлен); метод маркера (испытуемому после заучивания предъявляется либо элемент ряда, а он должен назвать предшествующий или последующий элементы; либо называется позиция элемента в заучиваемом ряду, а он должен назвать сам этот элемент) и т.д. Все эти методы дают разные оценки эффективности «удержания заученного в памяти». Как это может быть?? Для каждого метода разрабатывается своя программа воспроизведения? Но это же нелепо!
Наконец, уровень воспроизведения, какими бы методами он ни был измерен, различен на разных стадиях заучивания. В начале заучивания воспроизведение и неточно, и неполно. Трудно представить, какой должна быть программа воспроизведения, чтобы нечто заученное всё же воспроизводилось, но воспроизводилось с ошибками и пропусками. Наконец, заученный материал со временем начинает частично забываться. Как и почему должна модифицироваться программа воспроизведения, чтобы этакое произошло? Оказывается также, что испытуемый лучше воспроизводит заученный материал, если находится в том же физиологическом состоянии (например, в состоянии алкогольного или наркотического опьянения), что и в момент заучивания.[165] Как состояние испытуемого может учитываться программой поиска? Думается, сказанного достаточно, чтобы почувствовать весьма серьёзное колебание перед тем, как выбрать и этот вариант гипотезы «упрочения следа».
Не удивительно, что существует группа теорий, имеющих более когнитивный вид. Первые варианты появились сто лет назад, благодаря классическому исследованию Г. Мюллера и А. Пильцекера. В их работе выявилось, что запоминание одного ряда мешает запоминанию другого.[166] Сами Мюллер и Пильцекер дали своим результатам интерпретацию, весьма напоминающую те, которые только что обсуждались: активность нервной системы, вызванная заучиванием, продолжается небольшое время (реверберирует) после окончания процесса заучивания, но постепенно угасает. Именно в это время происходит консолидация (упрочение) только что возникших ассоциаций заучиваемого материала с той информацией, которая уже хранится в памяти. Этим они объясняли явления реминисценции – когда наблюдается улучшение воспроизведения без повторного предъявления. Но в эту невнятность они внесли существенную новацию. Человек не способен помнить информацию долгое время потому, что нервная система всегда активна, а любая другая активность, существующая в процессе консолидации, мешает этому процессу и приводит к забыванию.
Позднее стали говорить проще: два мнемических процесса, вызванных двумя разными заданиями, накладываются друг на друга, в результате чего возникает интерференция, т.е. взаимное угашение и торможение процессов. Мнемическая интерференция ярче всего проявляется в ошибках воспроизведения. Любой человек сталкивался с ситуацией, когда он вспоминал нечто иное, чем собирался вспомнить, – вот это, говорят, и есть следствие наложения одного воспоминания на другое, т.е. интерференция. Итак, предполагается, что какие-то процессы накладываются друг на друга. Но зачем? Что это за процесс, который ничего, кроме снижения эффективности деятельности, не даёт?
Давайте разберёмся, какой когнитивный механизм может обеспечить интерференцию. Чаще всего описание интерференции выглядит так, как будто несколько информационных потоков конкурируют друг с другом за захват ограниченного пространства или ограниченных ресурсов. (Эта нелепая и ничем не обоснованная точка зрения типична для объяснения любых – не только мнемических – интерференционных эффектов) Допустим, рассуждают П. Линдсей и Д. Норман, некоторый блок в структуре переработки информации способен вместить в себя только некоторое фиксированное число единиц информации. Тогда поступление новой единицы должно вытеснить предшествующую из данного блока. Но это, ведь, и есть интерференция! Правда, добавляют авторы, эта модель слишком проста, чтобы дать чёткое представление о процессе.[167] К сожалению, дело здесь не в простоте. Данная модель вообще не имеет никакого отношения к интерференции.
Рассмотрим два варианта реализации этой идеи, предлагаемые разными авторами. Первый вариант (дискретное вытеснение) предполагает, что подлежащий сохранению элемент полностью стирается при поступлении нового элемента. Второй (непрерывное ослабление) – что новая единица не полностью вытесняет старую, а лишь «ослабляет» её, уменьшая вероятность использования этой единицы в дальнейшей переработке информации. Рассмотрим вариант дискретного вытеснения. Предполагается, что система хранения удерживает в памяти не более n элементов. Дело сейчас не в том, что само это предположение ни на чём не основано, противоречит наблюдаемым явлениям и само по себе логически абсурдно, – наша задача показать невозможность вывода из подобного допущения феномена мнемической интерференции. Пусть в систему хранения поступил ещё один (n+1-й) элемент. Для замещения старого элемента новым необходимо либо принять решение о том, какой именно старый элемент следует удалить из памяти (и тогда, кстати, система хранения должна обрабатывать и, тем самым, хранить уже не n, а, по меньшей мере, n+1 элементов), либо действовать по какому-либо заранее заданному правилу: удалять самый ранний (или поздний) элемент предшествующего ряда (так, например, устроена стековая память в калькуляторе), удалять наугад и т.д. Во всех случаях удалённый элемент никогда не будет появляться в последующих воспроизведениях. Но это как раз означает строго противоположное тому, что хотели объяснить теоретики: далее исчезнувший элемент уже ни с чем никогда не будет интерферировать!
Вариант непрерывного ослабления не подлежит прямому опровержению просто потому, что он внятно не прописан. Вот как, например, его излагает Р. Клацки: каждый след в памяти обладает характеристикой чёткости. В момент, когда конкретный элемент поступает на хранение, его след обладает предельной чёткостью. Поступление новых элементов снижает чёткость ранее хранимых элементов и, в конце концов, может привести к тому, что хранимый элемент уже никогда не сможет быть восстановлен и воспроизведён. Ну, и, разумеется, добавляется допущение, что повторение сохраняет чёткость следа.[168] В таком изложении теоретическая конструкция просто с помощью иных слов утверждает: повторение приводит к заучиванию. Гипотетическое представление о чёткости следа не привносит ничего нового. Ключевое утверждение, что именно поступление новых элементов уменьшает чёткость следа не может быть, как признаёт сама Клацки, экспериментально доказано.