Материал из РУВИКИ — свободной энциклопедии

Устойчивость убеждений

Устойчивость убеждений
англ. Belief perseverance
Область использования Когнитивная психология

Усто́йчивость убежде́ний (концептуа́льный консервати́зм[1]) — это сохранение убеждений, несмотря на появление новых сведений, которые явно противоречат им[2].

Определение

[править | править код]

Поскольку рациональность предполагает концептуальную гибкость[3][4], устойчивость убеждений согласуется с представлением о том, что люди порой действуют иррационально. Философ Ф. К. С. Шиллер полагал, что устойчивость убеждений «можно считать одним из основных «законов» природы»[5].

Если убеждения укрепляются после того, как другие пытаются представить доказательства, опровергающие их, это называется «эффектом обратного действия»[6].

Данные экспериментальной психологии

[править | править код]

По мнению Ли Росса (англ. Lee Ross) и Крейга А. Андерсона (англ. Craig A. Anderson), «представления о мире оказываются на удивление стойкими, даже когда сталкиваются с эмпирическими сложностями, которые, казалось бы, должны их опровергнуть»[7].

В 1956 году Л. Фестингер (англ. Leon Festinger), Г. Рикен (англ. Henry Riecken) и С. Шахтер (англ. Stanley Schachter) провели исследование, чтобы изучить, насколько стойкими являются убеждения людей. Они наблюдали за членами культа судного дня, которые верили, что конец света наступит 21 декабря 1954 года. И хотя прогноз не сбылся, многие из них продолжали верить в свою идею[8][9][10]. В работах «When Prophecy Fails: A Social and Psychological Study of a Modern Group That Predicted the Destruction of the World» (1956) и «A Theory of Cognitive Dissonance» (1957), Фестингер выдвинул гипотезу о том, что люди стремятся к внутреннему психологическому равновесию, чтобы эффективно взаимодействовать с окружающей действительностью[8]. Люди, которые чувствуют внутренний разлад, обычно испытывают психологический дискомфорт и пытаются уменьшить когнитивный диссонанс. Они склонны вносить изменения, чтобы оправдать стрессовое поведение, либо добавляя новые элементы в когнитивную систему, вызывающую психологический диссонанс (рационализация), либо избегая обстоятельств и противоречивой информации, которые могут усилить когнитивный диссонанс (предвзятость подтверждения)[8][9][11].

Когда участникам эксперимента предлагали пересмотреть свои оценки вероятности с учётом новых данных, они проявляли явную склонность недооценивать новые данные. Они не хотели признавать, что их предсказания были неточными, считая это лишь отражением их общей убеждённости. В отдельных случаях участники эксперимента говорили, что их устойчивость убеждений стала сильнее, чем прежде[12].

В рамках отдельного исследования, участникам, обладающим математическими способностями, подросткам и взрослым, было предложено решить семь арифметических задач. Им было необходимо оценить приблизительные решения, используя ручные вычисления. Затем, используя калькулятор, который выдавал всё более ошибочные результаты, их попросили дать точные ответы. Например, требовалось вычислить 252 × 1,2 = 452,4, хотя правильный ответ был 302,4. Примерно половина участников успешно справилась со всеми семью заданиями, комментируя свои оценочные способности или стратегию решения. Они продолжали верить в точность калькуляторов и отказывались признать, что их предыдущие предположения могли быть неверными[13].

В ходе другого исследования участники потратили примерно четыре часа, следуя инструкциям из практического руководства. В какой-то момент в инструкции появилась формула, которая заставила участников поверить, что сферы на 50 % больше, чем они есть на самом деле. Затем участникам предоставили реальную сферу и попросили определить её объём. Сначала они использовали формулу, а затем наполнили сферу водой, перелили воду в контейнер и измерили объём воды в нём. В последнем эксперименте этой серии все 19 участников были докторами философии. Исследователи и профессора из двух крупных университетов, имеющие степень в области естественных наук, сравнили результаты двух измерений объёма сферы большего размера. Все, кроме одного из них, использовали ложную формулу, несмотря на свои наблюдения[14].

Даже когда мы имеем дело с идеологически нейтральными представлениями о реальности, когда эти представления были приобретены недавно, когда они пришли к нам из незнакомых источников, когда они были усвоены по надуманным причинам, когда отказ от них не влечёт за собой ощутимых рисков или издержек, и когда последующие события резко противоречат им, мы, по крайней мере, на какое-то время, не склонны сомневаться в таких концепциях и вряд ли откажемся от них на практике.

(англ. Even when we deal with ideologically neutral conceptions of reality, when these conceptions have been recently acquired, when they came to us from unfamiliar sources, when they were assimilated for spurious reasons, when their abandonment entails little tangible risks or costs, and when they are sharply contradicted by subsequent events, we are, at least for a time, disinclined to doubt such conceptions on the verbal level and unlikely to let go of them in practice)
— –Моти Ниссани[15]

Эффекты обратного воздействия

[править | править код]

Если убеждения укрепляются после того, как другие пытаются представить доказательства, опровергающие их, этот процесс называют эффектом обратного действия[6]. К типам эффекта обратного действия относятся: эффект обратного действия из-за узнаваемости, эффект обратного действия из-за чрезмерного количества аргументов и эффект обратного действия из-за мировоззрения[16]. Есть несколько способов выявить недостоверную информацию. Один из них — сосредоточиться на реальных фактах, а не на домыслах. Другой — прямо указать, что информация ложная. Также можно предложить альтернативные версии, чтобы заполнить пробелы после того, как была раскрыта ложная информация[17][18].

В 2020 году был проведён обзор научной литературы, посвящённый эффекту обратного воздействия. В ходе исследования были обнаружены распространённые ошибки, которые могли привести к повторению существования этого эффекта даже в условиях, которые теоретически должны были его предотвратить. Из-за отсутствия воспроизводимости к 2020 году большинство исследователей пришли к выводу, что побочные эффекты либо маловероятны, либо проявятся на более широком популяционном уровне, либо они возникают только в очень специфических обстоятельствах, либо их не существует. Брендан Найхан (англ. Brendan Nyhan), один из исследователей, который предположил возникновение эффекта обратного действия, в 2021 году написал, что устойчивость дезинформации, скорее всего, обусловлена другими факторами[19][20][16].

Для большинства людей исправления и проверка фактов вряд ли окажут негативное влияние, и нет какой-то конкретной группы людей, в которой постоянно наблюдался бы эффект обратного воздействия. Было доказано, что предоставление людям фактической информации оказывает положительное влияние во многих обстоятельствах[16][21][22].

Одна из возможных причин такого эффекта — это то, что критика, которая ставит под сомнение чьё-то мировоззрение или идентичность, скорее всего, вызовет обратную реакцию. Это означает, что более эффективным подходом может быть критика, которая не бросает вызов чьему-то мировоззрению или идентичности[22][21].

В культурных инновациях

[править | править код]

Физик Макс Планк (англ. Max Planck) писал, что «новая научная истина торжествует не потому, что убеждает своих противников и заставляет их увидеть свет, а скорее потому, что её противники в конце концов умирают, и вырастает новое поколение, знакомое с ней»[23]. Например, гелиоцентрическая теория, предложенная древнегреческим астрономом Аристархом Самосским, была заново открыта примерно через 1800 лет после своего появления. И даже тогда она столкнулась с серьёзными трудностями, прежде чем астрономы признали её истинность[24].

В образовании

[править | править код]

Студенты часто «цепляются за идеи, которые являются частью их мировоззрения, даже когда сталкиваются с информацией, которая не совпадает с этим мировоззрением»[25]. К примеру, учащиеся могут потратить немало времени на изучение Солнечной системы и успешно пройти соответствующие экзамены, но при этом продолжать считать, что фазы Луны зависят от тени Земли. Полученные знания не смогли поколебать их представлений, которые сформировались до получения этих знаний[26].

Причины устойчивость убеждений остаются неясными. Эксперименты, проведённые в 2010-х годах, показывают, что в основе сильной предвзятости внимания при обучении, связанном с вознаграждением, лежат нейрохимические процессы в головном мозге. Аналогичные процессы могут лежать в основе устойчивости убеждений[27].

Питер Маррис (англ. Marris Peter) предполагал, что процесс отказа от убеждений подобен преодолению горя. «Стремление защитить предсказуемость жизни является фундаментальным и универсальным принципом человеческой психологии. Человеческие существа обладают глубоко укоренившейся и настойчивой потребностью в преемственности»[28].

Философ науки Томас Кун (англ. Kuhn Thomas) обращал внимание на параллели между изменениями в понимании и восприятии. Сложность перехода от одного представления к другому может быть связана с трудностями в изменении восприятия или мышления[29].

Примечания

[править | править код]
  1. Nissani M. A Cognitive Reinterpretation of Stanley Milgram's Observations on Obedience to Authority (1990).
  2. Encyclopedia of Social Psychology / Baumeister, R. F.. — Thousand Oaks, CA : Sage, 2007. — P. 109–110. — ISBN 9781412916707.
  3. Informal Reasoning and Education / Voss, J. F.. — Hillsdale : Erlbaum, 1991. — P. 172.
  4. Cognitive Structure and Conceptual Change / West, L.H.T.. — Orlando, FL : Academic Press, 1985. — P. 211.
  5. Beveridge, W. I. B. The Art of Scientific Investigation. — New York : Norton, 1950. — P. 106.
  6. 1 2 backfire effect - The Skeptic's Dictionary - Skepdic.com. web.archive.org. Дата обращения: 15 октября 2025.
  7. Judgment Under Uncertainty: Heuristics and Biases. — Cambridge : Cambridge University Press, 1982. — P. 144.
  8. 1 2 3 Dawson, Lorne L. (October 1999). “When Prophecy Fails and Faith Persists: A Theoretical Overview” (PDF). Nova Religio: The Journal of Alternative and Emergent Religions. Berkeley: University of California Press. 3 (1): 60—82. DOI:10.1525/nr.1999.3.1.60. ISSN 1092-6690. LCCN 98656716. Дата обращения 20 September 2021.
  9. 1 2 Festinger, L. (1962). “Cognitive dissonance”. Scientific American. 207 (4): 93—107. Bibcode:1962SciAm.207d..93F. DOI:10.1038/scientificamerican1062-93. PMID 13892642. S2CID 56193073.
  10. Festinger, Leon. When Prophecy Fails. — Minneapolis : University of Minnesota Press, 1956.
  11. Festinger, L. (1957). A Theory of Cognitive Dissonance. California: Stanford University Press.
  12. Formal Representation of Human Judgment. — New York : Wiley, 1968. — P. 17–52.
  13. Timnick, Lois (1982). “Electronic Bullies”. Psychology Today. 16: 10—15.
  14. Nissani, M. and Hoefler-Nissani, D. M. (1992). “Experimental Studies of Belief-Dependence of Observations and of Resistance to Conceptual Change”. Cognition and Instruction. 9 (2): 97—111. DOI:10.1207/s1532690xci0902_1.
  15. Nissani, Moti (December 1990). “A Cognitive Reinterpretation of Stanley Milgram's Observations on Obedience to Authority”. American Psychologist. 45 (12): 1384—1385. DOI:10.1037/0003-066X.45.12.1384. Дата обращения November 21, 2021.
  16. 1 2 3 Swire-Thompson B, DeGutis J, Lazer D (2020). “Searching for the Backfire Effect: Measurement and Design Considerations”. J Appl Res Mem Cogn. 9 (3): 286—299. DOI:10.1016/j.jarmac.2020.06.006. PMC 7462781. PMID 32905023.
  17. Lewandowsky, Stephan; Cook, John & Lombardi, Doug (2020), Debunking Handbook 2020, Databrary, с. 9—11, doi:10.17910/b7.1182, <http://databrary.org/volume/1182>. Проверено 20 января 2021. 
  18. Cook, J., Lewandowsky, S. (2011), The Debunking Handbook. St. Lucia, Australia: University of Queensland. November 5. ISBN 978-0-646-56812-6. [1]
  19. Nyhan B (2021). “Why the backfire effect does not explain the durability of political misperceptions”. Proc Natl Acad Sci U S A. 118 (15). DOI:10.1073/pnas.1912440117. PMC 8053951. PMID 33837144. Архивировано из оригинала March 16, 2024. Используется устаревший параметр |url-status= (справка)
  20. Lazić, Aleksandra; Žeželj, Iris (18 May 2021). “A systematic review of narrative interventions: Lessons for countering anti-vaccination conspiracy theories and misinformation”. Public Understanding of Science. SAGE Publications. 30 (6): 644—670. DOI:10.1177/09636625211011881. ISSN 0963-6625.
  21. 1 2 van Prooijen, Jan-Willem; Douglas, Karen M. (2018). “Belief in conspiracy theories: Basic principles of an emerging research domain”. European Journal of Social Psychology. 48 (7): 897—908. DOI:10.1002/ejsp.2530. ISSN 0046-2772. PMC 6282974. PMID 30555188.
  22. 1 2 Moyer, Melinda Wenner People Drawn to Conspiracy Theories Share a Cluster of Psychological Features. Scientific American (1 марта 2019). Дата обращения: 16 октября 2020.
  23. Eisenck, Hans J. Rebel with a Cause. — London : W. H. Allen, 1990. — P. 67.
  24. Koestler, Arthur. The Sleepwalkers: A History of Man's Changing Vision of the Universe. — Penguin Books, 1990. — ISBN 978-0140192469.
  25. Burbules, N.C.; et al. (1992). “Response to contradiction: scientific reasoning during adolescence”. Journal of Educational Psychology. 80: 67—75. DOI:10.1037/0022-0663.80.1.67.
  26. Lightman, A.; et al. (1993). “Teacher predictions versus actual student gains”. The Physics Teacher. 31 (3): 162—167. Bibcode:1993PhTea..31..162L. DOI:10.1119/1.2343698.
  27. Anderson, Brian A.; et al. (2016). “The Role of Dopamine in Value-Based Attentional Orienting”. Current Biology. 26 (4): 550—555. DOI:10.1016/j.cub.2015.12.062. PMC 4767677. PMID 26877079.
  28. Marris, Peter. Loss and Change. — London : Routledge, 1986. — P. 2.
  29. Kuhn, Thomas. The Structure of Scientific Revolutions. — Chicago : University of Chicago Press, 1962.