Welcome to Magazine Premium

You can change this text in the options panel in the admin

There are tons of ways to configure Magazine Premium... The possibilities are endless!

Member Login
Lost your password?

Persuasores ocultos (sesgos cognitivos, falacias e ilusiones)

Un término usado por Geoffrey Dean e Ivan Kelly (2003) para describir la afectividad, la percepción, y los sesgos cognitivos o ilusiones que conducen a creencias erróneas. Los ejemplos de persuasores ocultos abundan. Algunos de los más importantes son:

 

Anclaje (efecto)

Apofenia

Auto-decepción

Aversión a la perdida

 

Calzador (shoehorning)

Ceguera al cambio

Ceguera por falta de atención

Coincidencia

Condicionamiento

Confabulación

 

Delirio de agrupación

Disonancia cognitiva

Distorsión retrospectiva

 

Efecto autoquinético

Efecto backfire

Efecto Barnum

Efecto de influencia continuada

Efecto del experimentador

Efecto file-drawer (Archivo-Cajón)

Efecto Forer

Efecto halo

Efecto ideomotor

Error de disponibilidad

Errores de atribución

 

Falacia de coste hundido

Falacia del francotirador

Falacia del jugador

Falacia de la solución perfecta

Falacia pragmática

Falacia regresiva

Falsificación retrospectiva

Fenómeno Clever Hans

Fenómeno Clever Linda

 

Hipótesis ad hoc

 

Ilusión de control

Ilusión de entendimiento o comprensión

Ilusión de habilidad

Ilusión de justicia

 

Lectura en frio

 

Nocebo

No falsabilidad

 

Pareidolia

Pensamiento ilusorio

Pensamiento mágico

Pensamiento selectivo

Percepción hipersensorial

Placebo

 

Razonamiento motivado

Razonamiento post hoc

Refuerzo comunitario

 

Sesgo afectivo

Sesgo de confirmación

Sesgo de experiencia reciente

Sesgo de intencionalidad

Sesgo de negatividad

Sesgo de proporcionalidad

Sesgo de punto ciego

Sesgo de representabilidad

Sesgo de resultado positivo

Sesgo de selección

Sesgo de simple-causa/fallacia/ilusión

 

Testimonios (evidencia anecdótica)

 

Validación subjetiva

 

“Técnicamente estos persuasores ocultos pueden ser descritos como “artefactos estadísticos y sesgos inferenciales” (Dean y Kelly 2003: 180).” Dean y Kelly argumentan que los persuasores ocultos explican por qué muchos astrólogos siguen creyendo en la validez de la astrología a pesar de la abrumadora evidencia de que la astrología es una tontería. El psicólogo Terence Hines, que ha explorado muchas variedades de persuasores ocultos (Hines, 2003), los culpa por el uso continuado que haceb los psicólogos de instrumentos como el test de Rorschach, a pesar de la abrumadora evidencia de que la prueba no es válida e inútil:

Los psicólogos continúan creyendo en el Rorschach por las mismas razones que los lectores de cartas del Tarot creen en las cartas del Tarot, que los lectores de palmas de la mano creen en la quiromancia, y que los astrólogos creen en la astrología: las conocidas ilusiones cognitivas que fomentan la falsa creencia. Estos incluyen la dependencia de la evidencia anecdótica, la memoria selectiva de aparentes éxitos, y el refuerzo de sus colegas.(Hines 2003)

Los persuasores ocultos se originan en las adaptaciones bastante útiles. Ver patrones, especialmente patrones causales, es muy beneficioso para nuestra especie. Reconocer cómo los datos apoyan nuestras creencias y tener a otros compartiendo esas creencias es también beneficioso. Dibujar inferencias rápidamente puede significar la diferencia entre la vida y la muerte. Tener esperanza, lo cual reduce la tensión causada por ideas en conflicto, e incluso engañarnos a nosotros mismos, puede ser psicológicamente ventajoso. Pero todas estas tendencias positivas pueden llegar a ser pervertidas y hacernos caer en el error si no tenemos cuidado. Muchos escépticos han señalado que los persuasores ocultos a veces parecen afectar a las personas de forma proporcional a su inteligencia: cuanto más inteligente es uno, más fácil es desarrollar falsas creencias. Hay varias razones para esto: (1) los persuasores ocultos afectan a todo el mundo hasta cierto punto; (2) cuanto más inteligente se es, más fácil es ver patrones o datos que se ajustan a una hipótesis y sacar conclusiones; (3) cuanto más inteligente se es, más fácil es racionalizar, es decir, explicar la fuerte evidencia contraria a la creencia de uno; y (4) las personas inteligentes son a menudo arrogantes y piensan erróneamente que no pueden ser engañados por otros, por los datos, o por ellos mismos. Los persuasores ocultos (1957) son también el título de un libro de Vance Packard. Él hizo una crónica de muchos métodos, algunos bastante abiertos y evidentes, que los publicistas utilizan en su búsqueda para manipular los pensamientos y acciones de los consumidores. Packard intentó exponer la propaganda corporativa como una especie de operación de control mental, especialmente en el uso de mensajes subliminales. Lo que Dean y Kelly describen son las muchas formas en que nos venden a nosotros mismos ideas mediante la colocación de bloques conceptuales y perceptuales para pensar con claridad y bastante sobre ciertos temas.

Ver también Thinking, Fast and Slow de Daniel Kahaneman para saber un análisis más reciente de los estudios científicos sobre los sesgos cognitivos. Ver también el archivo de enlaces a las entradas del blog en persuasores ocultos en actos antinaturales que pueden mejorar su forma de pensar .

Para saber más…

Libros y artículos

Adams, James L. Conceptual Blockbusting: A Guide to Better Ideas 3rd ed. (Perseus Press, 1990).

Alcock, J. (1995) “The Belief Engine,” Skeptical Inquirer. 19(3): 255-263.

Alcock, James E. Science and Supernature : a Critical Appraisal of Parapsychology (Buffalo, N.Y.: Prometheus Books, 1990).

Ariely, Dan.  (2008). Predictably Irrational: The Hidden Forces That Shape Our Decisions (HarperCollins).

Bausell, R. Barker. (2007). Snake Oil Science: The Truth about Complementary and Alternative Medicine Oxford.

Browne, M. Neil & Stuart M. Keeley. Asking the Right Questions: A Guide to Critical Thinking (Prentice Hall, 1997).

Burton, Robert. 2008. On Being Certain: Believing You Are Right Even When You’re Not. St. Martin’s Press.

Carroll, Robert Todd. Becoming a Critical Thinker – A Guide for the New Millennium (Boston: Pearson Custom Publishing, 2000).

Chabris, Christopher and Daniel Simons. 2010. The Invisible Gorilla: And Other Ways Our Intuitions Deceive Us. Crown.

Damer. T. Edward. Attacking Faulty Reasoning: A Practical Guide to Fallacy-Free Arguments 4th edition (Wadsworth Pub Co, 2001).

Dawes, Robyn M. Everyday Irrationality: How Pseudo-Scientists, Lunatics, and the Rest of Us Systematically Fail to Think Rationally (Westview Press 2003).

Dean, Geoffrey and Ivan Kelly. “Is Astrology Relevant to Consciousness and Psi? Journal of Consciousness Studies.Volume 10, No. 6-7, June-July 2003.

Dean, Geoffrey, Ivan W. Kelly, and Arthur Mather. “Undeceiving Ourselves,” in The Skeptic Encyclopedia of Pseudoscience, eds. Michael Shermer and Pat Linse (ABC-CLIO 2002).

Frazier, Kendrick, ed. Paranormal Borderlands of Science(Amherst, N.Y.: Prometheus Books, 1991).

Gardner, Martin. Fads and Fallacies in the Name of Science (New York: Dover Publications, Inc., 1957),

Gardner, Martin. Science: Good, Bad and Bogus (Buffalo, N.Y.: Prometheus Books, 1981).

Giere, Ronald, Understanding Scientific Reasoning, 4th ed, (New York, Holt Rinehart, Winston: 1998).

Gilovich, Thomas. How We Know What Isn’t So: The Fallibility of Human Reason in Everyday Life (New York: The Free Press, 1993).

Groopman, Jerome. M.D. 2007. How Doctors Think. Houghton Mifflin. My review of this book is here.

Hall, Harriet A. “Wired to the Kitchen Sink – Studying Weird Claims for Fun and Profit,” Skeptical Inquirer. May/June 2003.

Hines, Terence. “A Clear, Sharp View of the Fuzzy Inkblot Test,”Skeptical Inquirer, September/October 2003. (A review of What’s Wrong with the Rorschach? by James M. Wood, M. Teresa Nezworski, Scott O. Lilienfeld, and Howard N. Garb (Jossey-Bass 2003).

Hines, Terence. Pseudoscience and the Paranormal (Buffalo, NY: Prometheus Books, 2003).

Hyman, Ray. The Elusive Quarry : a Scientific Appraisal of Psychical Research (Buffalo, N.Y.: Prometheus Books, 1989).

Hyman Ray. “Why and When Are Smart People Stupid?” inSternberg 2002.

Kahneman, Daniel. Paul Slovic, and Amos Tversky. eds. 1982.Judgment Under Uncertainty: Heuristics and Biases Cambridge University Press.

Kahane, Howard. Logic and Contemporary Rhetoric: The Use of Reason in Everyday Life, 8th edition (Wadsworth, 1997).

Kahneman, Daniel. Thinking, Fast and Slow (Kindle 2011) . Book review.

Kida, Thomas. 2006. Don’t Believe Everything You Think: The 6 Basic Mistakes We Make in Thinking. Prometheus.

Kourany, Janet A. Scientific Knowledge: Basic Issues in the Philosophy of Science, 2nd edition (Belmont: Wadsworth Publishing Co., 1998).

Levine, Robert. 2003. The Power of Persuasion – How We’re Bought and Sold. John Wiley & Sons.

Moore, Brooke Noel. Critical Thinking (Mayfield Publishing Company, 2000).

Neher, Andrew. The Psychology of Transcendence  (Prentice-Hall 1980).

Park, Robert L. Voodoo Science: the Road from Foolishness to Fraud (Oxford University Press, 2000).

Pickover, Clifford A. The Girl Who Gave Birth to Rabbits : A True Medical Mystery (Prometheus, 2000).

Randi, James. Flim-Flam! Psychics, ESP, Unicorns, and Other Delusions (Buffalo, New York: Prometheus Books, 1982).

Reed, Graham. The Psychology of Anomalous Experience : A Cognitive Approach (Buffalo, NY: Prometheus Books, 1988).

Sagan, Carl. The Demon-Haunted World – Science as a Candle in the Dark (New York: Random House, 1995).

Schick, Jr., Theodore and Lewis Vaughn, How to Think About Weird Things 5th ed. (McGraw-Hill, 2001),

Seckel, Al. (2006). Incredible Visual Illusions. Arcturus Publishing, Ltd.

Shermer, Michael. The Borderlands of Science: Where Sense Meets Nonsense (Oxford University Press, 2001).

Shermer, Michael. Why People Believe Weird Things: Pseudoscience, Superstition, and Other Confusions of Our Time2nd revised edition (Owl Books 2002).

Shermer, Michael. “Why Smart People Believe Weird Things,”Skeptic. Vol. 10 No. 2, 2003, pp. 62-73.

Skinner, B. F. ‘Superstition’ in the Pigeon. Indiana University First published in Journal of Experimental Psychology, 38, 168-172.

Stanovich, Keith E., How to Think Straight About Psychology, 5th edition (Addison-Wesley, 1997).

Stenger, Victor J. Physics and Psychics: the Search for a World Beyond the Senses (Buffalo, N.Y.: Prometheus Books, 1990).

Sternberg, Robert J. ed. Why Smart people Can Be So Stupid. (Yale University Press 2002).

Sutherland, Stuart. (2007). Irrationality. 2rev edition (Pinter & Martin Ltd).

Taleb, Nassim Nicholas. 2007.  The Black Swan: The Impact of the Highly Improbable. Random House.

Van Hecke, Madeleine L. (2007). Blind Spots: Why Smart People Do Dumb Things. Prometheus.

Vaughn, Lewis. 2007. The Power of Critical Thinking: Effective Reasoning About Ordinary and Extraordinary Claims. 2nd. ed. Oxford University Press.

Vyse, Stuart A. Believing in Magic: The Psychology of Superstition(Oxford University Press 2000).

Wiseman, Richard. Deception & Self-Deception: Investigating Psychics (Prometheus Books, 1997).

Zusne, Leonard & Warren Jones. Anomalistic Psychology: A Study of Magical Thinking (Lawrence Erlbaum Association, 1990).

Blogs

Unnatural Acts: A follow-up to my book Unnatural Acts: Critical Thinking, Skepticism and Science Exposed! The blog offers irregular postings about biases, fallacies, and illusions.

A Visual Study Guide to Cognitive Biases Eric Fernandez

You’re Not So Smart David McRaney

Share

Categorías: , ,

  • Palabra al azar

    • Evidencia anecdótica (testimonios)
      Los testimonios y anécdotas vividas son una de las formas más populares y de las pruebas más convincentes presentadas por los creyentes de lo sobrenatural, lo paranormal y lo pseudocientífico. Sin embargo, los testimonios y las anécdotas en tales asuntos tienen poco valor en el establecimiento de la probabilidad de las afirmaciones que ellos proponen para apoyarlas. Las historias sinceras y vivas de encuentros de alguien con un ángel o con la Virgen María, con un extraterrestre, un fantasma, un Bigfoot, un niño afirmando  haber vivido antes, de auras púrpuras alrededor de pacientes que mueren, de un zahorí milagroso, de un gurú que levita, o de un cirujano psíquico, son de poco valor para establecer una creencia razonable en tales asuntos. Las anécdotas no son fiables por varias razones. Las historias son propensas a la contaminación por creencias, experiencias posteriores, retroalimentación, atención selectiva a los detalles, y así sucesivamente.
  • Ir a los archivos y notas del Escepticcionario

    Skeptic Dictionary