domingo, 29 de diciembre de 2019

Autoengaño, Logorrea y Pseudociencia



La pseudociencia constituye una forma de fraude intelectual consistente en ideas ajenas a la ciencia que, en un intento de aumentar su prestigio y aceptación social, se impostan como científicas.

El criterio de demarcación de Sven Ove Hansson (2009; 2013)  establece que un enunciado es pseudocientífico si y solo si:

1. Se refiere a un problema dentro del dominio de la ciencia en un sentido amplio
(criterio de dominio científico).
2. Adolece de una grave falta de fiabilidad, tal que no resulta en absoluto ser de confianza (criterio de la falta de fiabilidad).
3. Es parte de una doctrina para la que sus defensores tratan de crear la impresión de que representa el conocimiento más confiable de su temática (criterio de la doctrina desviada) (Hansson 2013, 71-72).


Los ejemplos que cumplen estas condiciones son numerosos, y se instalan en campos como la biología —lysenkoísmo, Diseño Inteligente—, la medicina —homeopatía, quiropraxia, terapia neural—, la psicología —(psicoanálisis), hipnosis regresiva, programación neurolingüística—, los productos milagro —cremas con ADN, la dieta del grupo sanguíneo—, o la historia —negacionismo del Holocausto, (astronautas de la antigüedad).

(Entre parentesis: No cumplen las condiciones para ser llamadas ciencia, pero eso no quiere decir que no tengan una hipotesis basadas en hechos y lógica)


El estudio de la pseudociencia tiene grandes problemas de cribado y carece de una escala propia que resulte adecuada. Lundstrôm y Jakobsson (2009) incluyen como pseudociencia la telepatía, la telequinesis, la influencia de las fases lunares en nuestra conducta o el uso de péndulos para decidir el sexo de los bebés.

Hay casos de marcos teóricos aún más carentes de solidez, como (Franz y Green 2013), en el que el 100% de los contenidos de las escalas empleadas son propios de pensamiento paranormal o espiritual. O como (Johnson y Pigliucci 2004), que incluyen en su escala de creencias pseudocientíficas, dejando de lado la astrología, un 80% de ítems que hacen referencia al pensamiento paranormal o conspirativo —alienígenas en el área 51, la supuesta capacidad de los animales para detectar fantasmas, el vudú o creer que romper un espejo da mala suerte.

La capacidad del ser humano para la de detección inmediata de engaños es tan baja que se acerca al azar (Bond y DePaulo 2006), con una pequeña fracción de aciertos por encima de lo aleatorio que se debe más a malos engañadores que a buenos detectores (Levine 2010) —a lo que hay que sumar fenómenos como, por ejemplo, las falsas memorias (Roediger y McDermott 1995; Braun, Ellis y Loftus 2002).

El principal problema es que las personas tienden a fijarse en el lenguaje corporal, en el nerviosismo (The Global Deception Research Team 2006) o en la actitud general de la persona, de un modo bastante prejuicioso y estereotipado (Levine et al. 2011), cuando esta clase de indicadores son poco fiables. Ello lleva a que ciertas personas sean consideradas sospechosas habituales de mentir siendo inocentes y a otras que, mintiendo pero controlando estos indicadores intuitivos, son capaces de aparentar la más incorruptible honestidad.

Es comprensible que el ser humano no haya desarrollado mecanismos fiables para detectar engaños guiándose por indicadores visibles en el momento mismo de mentir, dado que la interacción por defecto en las relaciones humanas es la sinceridad (Levine, Kim y Hamel 2010) y, por ello, la gente suele pensar por defecto que su interlocutor está siendo sincero (Levine 2014). De hecho, se calcula que solo el 5% de la población de los EEUU es culpable del 50% de las mentiras totales del país (Serota, Levine y Boster 2010).

Esta realidad contrasta con los beneficios sociales y personales del autoengaño, dado que las personas con niveles poco realistas de confianza en sí mismas tienen mayor atractivo sexual (Murphy et al. 2015) —esos niveles correlacionan con niveles altos de testosterona (Ronay 2016)— y éxito social (Anderson 2012). El autoengaño suele ser una herramienta muy útil para convencer a los demás (von Hippel y Trivers 2011), dado que hace sentir bien a esa persona, genera motivación en ella y proyecta una imagen de liderazgo y seguridad que la convierte en más eficaz engañando a los demás (Lamba y Nityananda 2014; Smith, Trivers y von Hippel. 2017).

Las personas, de hecho, suelen mentir únicamente hasta un nivel en el que puedan ser capaces de salvar su propia autoimagen de integridad, racionalizando para ello sus conductas inmorales (Tsang 2002). En este sentido, neutralizar la identidad moral es algo clave para la supervivencia de una pseudociencia, lo cual viene mediado, entre otras cosas, por la supresión de la atención en los códigos deontológicos de la educación o de las profesiones sanitarias, o por una actitud victimista y conspirativa en la que la industria y el sistema serían la fuente de un sufrimiento mucho mayor.
El pseudocientífico se ve a sí mismo como un luchador social, y tiene a mano una gran cantidad de herramientas, bajo la forma de sistemas de ideas autovalidantes (Boudry y Braeckman 2012) o de hipótesis ad-hoc, que permiten racionalizar y aumentar sus niveles de disonancia cognitiva, convirtiendo sistemáticamente las críticas y refutaciones en confirmaciones respecto a sus ideas y a su autoimagen. El problema de esta autoconcepción de luchador social es que motiva para engañar más a los demás, al creer que está haciendo el bien con ello (Gino, Ayal y Ariely 2013).

Las personas creativas mienten con más frecuencia (Gino y Ariely 2011). No tanto las más inteligentes —definiendo la inteligencia como la habilidad general para resolver problemas—, sino los denominados «pensadores originales»; aquellos pensadores con mayor capacidad para inventar relatos, con más flexibilidad social e incluso con más materia blanca —mayor interconexión entre áreas cerebrales.

Por último, es posible interpretar que la correlación con la religiosidad responde a
un mal diseño de la escala empleada para medir las creencias pseudocientíficas; una escala ah-hoc (Que es apropiado, adecuado o especialmente dispuesto para un determinado fin) que incluía entre sus ítems de forma recurrente al Diseño Inteligente, una pseudociencia estrechamente relacionada con la derecha religiosa de los Estados Unidos.

En psicología está fuertemente contrastado el modelo dual de la cognición humana, en el que existen dos sistemas de procesamiento de la información que funcionan en paralelo y que suponen subsistemas diferenciados a nivel cerebral (Tsujii y Watanabe 2009): el sistema intuitivo y el analítico (Epstein et al. 1996). El sistema intuitivo es rápido e inherentemente sesgado, permitiéndonos tomar decisiones inmediatas y poco razonadas, mientras que el analítico es lento, costoso y basado en el pensamiento crítico.

La mayor parte de la población, debido al tipo de educación que recibe y a las limitaciones intrínsecas que la especialización científica impone, únicamente es capaz de valorar la ciencia en relación a las características del interlocutor y a su apariencia estereotipada de cientificidad. Esto ha llevado a una comprensión muy deficiente de la naturaleza de la ciencia (Sumranwanich y Yuenyong 2014), incluso entre profesores de ciencia (Alswelmyeen y Al olimmat 2013), sesgos que pueden verse aún más agudizados en el caso de la atribución de autoridad vía internet (Metzger y Flanagin 2013).



Alvin Goldman localiza tres fuentes de valoración informal de la autoridad (Goldman 2001). En primer lugar, el análisis de los argumentos desde un punto de vista de la «superioridad dialéctica». En segundo, el apoyo en los expertos y por último, el valor de los credenciales del supuesto experto. El impacto psicológico, a nivel social, de las ideas de alguien que emane autoridad en el sentido de prestigio, de apoyo social, de supuesta falta de intereses ocultos e incluso de una valencia positiva en el nivel emocional y moral respecto a sus ideas es mucho mayor que el impacto de aquel que pretende legitimarse con base en un discurso seco, basado en estudios que pueden resultar incomprensibles y que, además, ofrecen al lego la a veces desagradable sensación de ignorancia y de falta de cierre epistémico (fundamento o conocimiento exacto).



La logorrea se podría definir como una tendencia a la verborrea desaforada y sin sentido. Consiste en hablar más, independientemente del sentido o la validez que pueda tener lo dicho. La logorrea es típica de la charlatanería, incluyendo a la pseudociencia (Ladyman 2013), y ha sido durante largo tiempo un gran problema para la filosofía, especialmente dentro de las corrientes posmodernas (Sokal y Bricmont 1999). Un orador logorréico es aquel que, en aras de continuar hablando, apela a falacias de oscuridad constantes (Walton 2002), en un estilo expresivo que supone un torrente de supuesta información semialeatoria que, además de confundir al rival y al oyente, y dadas las condiciones habituales de valoración de la capacidad retórica, hace parecer brillante al hablante cuando su discurso no tiene ni pies ni cabeza.

El psicoanálisis hizo lo propio con la termodinámica, durante la New Age fue lo cuántico y lo psico (Rosen 1977), durante cierto tiempo lo bio estuvo de moda, y ahora encontramos una gran cantidad de neuropseudociencia heredada en parte de la New Age (Beyerstein 1990).



Las personas tienden a mostrar un mayor respeto por las ideas que son apoyadas por una mayoría —un fenómeno habitualmente denominado «efecto bandwagon»—, incluso hasta el nivel de sostener ideas que resultan claramente contraintuitivas o ya refutadas (Bond y Smith 1996). Este tipo de comportamiento responde a las tendencias gregarias prosociales (Baumeister y Leary 1995) y conformistas del ser humano, inhibiendo sus acertadas primeras impresiones, aunque la estrategia adaptativa sea válida en términos de su contexto evolutivo.

Acerca de las publicaciones en revistas exigentes, hay tres estrategias habituales. La primera de ellas consiste en crear revistas carentes de controles rigurosos o directamente carentes de control alguno, con nombres grandilocuentes como el NLP Research Journal, el Interdisciplinary Journal of the International Society of Cryptozoology, o el Journal of Psychiatric Orgone Therapy, entre otros cientos de casos. Una segunda opción consiste en conseguir, por un fallo en los procesos de control de las revistas, publicar un artículo pseudocientífico en una publicación científica. Estos casos son abundantes, con algunos muy sonados como el artículo en The Lancet que relacionaba la vacuna triple vírica con el autismo.

Los grupos sociales humanos tienen determinadas dinámicas inherentes, como la jerarquización o el sentimiento de pertenencia. Los pseudocientíficos son un grupo humano que ha ido generando un cierto sentimiento de pertenencia, aunque puedan competir entre ellos. En este sentido, se establecen dos tipos diferenciados de pertenencia. En primer lugar, pertenencia al grupo que defiende una teoría específica, por ejemplo, terapeutas/consumidores de rebirthing, negacionistas de las vacunas o adeptos a la antroposofía -que relaciona la divinidad con la sabiduria humana-. Los defensores de la tierra plana suelen tener serios problemas con los defensores de la tierra hueca, la Gestalt con el psicoanálisis, los homeópatas licenciados en medicina con los que no, etc.

Lo que caracteriza el sentimiento de pertenencia a las diversas pseudociencias es, además de un posible negocio y la relación ambivalente con la ciencia, el victimismo y el sentimiento de estar un peldaño por encima de la ciencia «oficial» en un sentido moral y, en ocasiones, epistemológico. Ellos serían la buena ciencia, mientras que sus rivales dentro del sistema serían mala ciencia o, como mucho, ciencia mediocre. Por efecto del sesgo endogrupal y del narcisismo colectivo, los grupos tienden a percibirse como moralmente superiores a sus rivales. De este modo, los pseudocientíficos se caracterizarían por una mayor altura ética que los científicos, incluso en relación a cuestiones ecológicas o políticas.

Por ejemplo, considerando que su punto de vista es más «holístico», más abarcante, o que ellos comprenden las verdaderas causas de los problemas en lugar de atender a cuestiones superficiales. Existen casos sorprendentes por el nivel de exaltación de la autoconcepción de superioridad respecto a la ciencia, algo especialmente presente cuando se dan arengas nacionalistas dentro de la teoría pseudocientífica, como, por ejemplo, en cierta pseudociencia hinduista (Sokal 2006) que considera que la mecánica cuántica no solo fue ya descrita por los antiguos vedas, sino que fue superada por estos.


La pseudociencia, como también la politica y actividades implicadas en el negocio,  es una práctica llevada a cabo mayoritariamente por personas con un nivel educativo alto, de estatus socioeconómico medio-alto o alto (MSPSI 2011) y de pertenencia a etnias favorecidas por el sistema social (Chao y Wade 2008) —el mismo sistema social que suele ser ampliamente criticado en el discurso habitual de los pseudocientíficos. Es posible que esto se deba, además de al mayor respeto que una persona con un nivel educativo alto podría presentar hacia la ciencia, al mayor nivel de rebeldía anti-sistema que suelen presentar los grupos sociales que sienten menos dependencia respecto al mismo. En efecto, está ampliamente documentado que los grupos sociales más desfavorecidos son aquellos que justifican el sistema con mayor vehemencia (Jost et al. 2003; van der Toorn et al. 2015), incluso
en situaciones de pobreza extrema (Henry y Saul 2006). Este hecho, sumado a la preferencia social de la que gozan las figuras de autoridad y los grupos sociales pertenecientes a clases altas (Jost, Pelham y Carvallo 2002), genera que la pseudociencia, asi como otros artificios y engaños,  sea aún más atractivos para el grueso de la población.


Articulo escrito con contenido del departamento de Lógica, Historia y Filosofía de la Ciencia de la UNED grado de Filosofia.

REFERENCIAS
‘t Hooft, Gerardus. 2008. Editorial note. Foundations of Physics 38(1): 1-2.
Alswelmyeen, Monther y Abeer Al olimmat. 2013. The level of understanding of the nature of science for physics teachers and the relationship of that experience with academic qualification. European ScientificJournal 9/5: 15-28.
Anderson, Cameron et al. 2012. A status-enhancement account of overconfidence. Journal of Personality and Social Psychology 103/4: 718-735.
Ariely, Dan, Anat Brach, y Stephan Meier. 2009. Doing Good or Doing Well? Image Motivation and Monetary Incentives in Behaving Prosocially. American Economic Review 99/1: 544-555.
Barkan, Rachel, Shahar Ayal, y Dan Ariely. 2015. Ethical dissonance, justifications, and moral behavior. Current Opinion in Psychology 6: 157-161.
Barkan, Rachel et al. 2012. The pot calling the kettle black: distancing response to ethical dissonance. J Exp
Psychol Gen. 141(4): 757-773.
Baumeister, Roy y Mark Leary. 1995. The Need to Belong: Desire for Interpersonal Attachments as a Fundamental Human Motivation. Psychological Bulletin 117/3: 497-529.
Beyerstein, Barry.1990. Brainscams: Neuromythologies of the New Age. International Journal of MentalHealth 19/3: 27-36.
Blancke, Stefaan, Maarten Boudry y Massimo Pigliucci. 2016. Why Do Irrational Beliefs Mimic Science?
The Cultural Evolution of Pseudoscience. Theoria 83/1: 78-97.
Blancke, Stefaan et al. 2015. Fatal attraction: the intuitive appeal of GMO opposition. Trends in Plant Science 20/7: 414-418.
Bond, Charles y Bella DePaulo. 2006. Accuracy of Deception Judgments. Personality and Social Psychology
Review 10/3: 214-234.
Bond, Rod y Peter Smith. 1996. Culture and conformity: A meta-analysis of studies using Asch’s (1952b, 1956) line judgment task. Psychological Bulletin 119/1: 111-137.
Boudry, Maarten et al. 2014 What makes weird beliefs thrive? The epidemiology of pseudoscience. Philosophical Psychology 28/8: 1177-1198.
Boudry, Maarten y Johan Braeckman. (2012) How Convenient! The Epistemic Rationale of Self-validating Belief Systems. Philosophical Psychology 25: 341-364.
Braun, Kathryn, Rhiannon Ellis, y Elizabeth Loftus. 2002. Make my memory: how advertising can change our memories of the past. Psychol. Mark. 19: 1-23.
Brotherton, Robert, Chris French y Allan Pickering. 2013. Measuring Belief in Conspiracy Theories: The Generic Conspiracist Beliefs Scale. Frontiers in Psychology 4: 1-15.
Bruhn, Gerhard. 2008. On the Non-Lorentz-Invariance of M.W. Evans’ O(3)-Symmetry Law. Foundations of Physics 38/1: 3-6.
Bruhn, Gerhard, Friedrich Hehl, y Arkadiusz Jadczyk. 2008. Comments on «Spin Connection Resonance in Gravitational General Relativity. Acta Phys. Polon. B. 39: 51-58.
Bunge, Mario. 1985. Seudociencia e ideología. Madrid: Alianza.
Chao, MT y CM. Wade. 2008. Socioeconomic Factors and Women’s Use of Complementary and Alternative Medicine in Four Racial/Ethnic Groups. Ethn Dis. 18/1: 65-71.
CIS. 2001. Valores y creencias de los jóvenes. http://www.cis.es/cis/export/sites/default/-Archivos/
Marginales/2440_2459/2440/Es2440mar.pdf. Consultado el 16 de abril del 2017.362 Angelo Fasce Theoria 32/3 (2017): 345-365
Davenas, E et al. 1988. Human basophil degranulation triggered by very dilute antiserum against IgE. Nature 333/6176: 816-8.
Emel’yanova, A et al. 2017 Effects of Release-Active Antibodies to CD4 Receptor on the Level of lck-Kinase
in Cultured Mononuclear Cells from Human Peripheral Blood. Bulletin of Experimental Biology and Medicine 162: 323-326.
Epstein, Seymour et al. 1996. Individual differences in intuitive-experiential and analytical-rational thinking styles. Journal of Personality and Social Psychology 71: 390-405.
Fanelli, Daniele. 2009. How Many Scientists Fabricate and Falsify Research? A Systematic Review and MetaAnalysis of Survey Data. PLoS One 4/5: e5738.
Festinger, Leon. 1957 A Theory of Cognitive Dissonance. Stanford, CA: Stanford University Press.
Frankfurt, Harry. 2005. On Bullshit. Princeton: Princeton University Press.
Franz, Timothy y Kris Green. 2013. The impact of an interdisciplinary learning community course on pseudoscientific reasoning in first-year science students. Journal of the Scholarship of Teaching and Learning 13/5: 90-105.
Freud, Sigmund. [1896] 1976. [Zur Ätiologie der Hysterie] La etiología de la histeria. En José Luis Etcheverry ed., Sigmund Freud, obras completas (Volumen 3), 185-218. Buenos Aires: Amorrortu Editores.
Ganina, K. et al. 2017. Release-Active Antibodies to S100 Protein Can Correct the Course of Experimental Allergic Encephalomyelitis. Neuroscience and Behavioral Physiology 47: 163-167.
Gavrilova, Elena et al. 2014. Novel Approach to Activity Evaluation for Release-Active Forms of Anti-Interferon-Gamma Antibodies Based on Enzyme-Linked Immunoassay. PLoS ONE 9/5: e97017.
Gaze, Catherine. 2014. Popular psychological myths: A comparison of students’ beliefs across the psychology major. Journal of the Scholarship of Teaching and Learning 14/2: 46-60.
Gervais, Will y Ara Norenzayan. 2012. Analitic Thinking Promotes Religious Disbelief. Science 336/6080: 493-496.
Gino, Francesca y Dan Ariely. 2011. The Dark Side of Creativity: Original Thinkers Can Be More Dishonest. Journal of Personality and Social Psychology.
Gino, Francesca, Shahar Ayal, y Dan Ariely. 2009. Contagion and differentiation in unethical behavior: the effect of one bad apple on the barrel. Psychol Sci. 20/3: 393-398.
—. 2013. Self-Serving Altruism? The Lure of Unethical Actions that Benefit Others. J Econ Behav Organ. 93: 285-292.
Goldman, Alvin. 2001. Experts: Which Ones Should You Trust?. Philosophy and Phenomenological Research 63/1: 85-110.
Hansson, Sven Ove. 2009. Cutting the Gordian Knot of Demarcation. International Studies in the Philosophy of Science 23/3: 237-243.
—. 2013. Defining pseudoscience and science. In Massimo Pigliucci and Maarten Boudry eds., Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, 61-77. Chicago: University of Chicago Press.
—. 2017. Science denial as a form of pseudoscience. Submitted manuscript.
Henry, P. y A. Saul. 2006. The Development of System Justification in the Developing World. Social Justice
Research 19/3: 365-37.
Hughes, Sean, Fiona Lyddy y Sinead Lambe. 2013. Misconceptions about Psychological Science: a review.
Psychology Learning and Teaching 12/1: 20-31.
Johnson, Matthew y Massimo Pigliucci. 2004. Is Knowledge of Science Associated with Higher Skepticism of Pseudoscientific Claims?. The American Biology Teacher 66/8: 536-548.
Jost, John et al. 2003. Social inequality and the reduction of ideological dissonance on behalf of the system:
evidence of enhanced system justification among the disadvantaged. Eur. J. Soc. Psychol. 33: 13-36.
Jost, John, Allison Ledgerwood, y Curtis Hardin. 2008. Shared reality, system justification, and the relational basis of ideological beliefs. Social and Personality Psychology Compass 2: 171-186.
Jost, John, Brett Pelham y Mauricio Carvallo. 2002. Non-conscious forms of system justification: Cognitive, affective, and behavioral preferences for higher status groups. Journal of Experimental Social Psychology 38: 586-602.Theoria 32/3 (2017): 345-365
Los parásitos de la ciencia. Una caracterización psicocognitiva del engaño pseudocientífico 363 Kaikati, J. 1987. Celebrity Advertising. A Review and Synthesis. International Journal of Advertising 6/2:93-105.
Ladyman, James. 2013. Toward a Demarcation of Science from Pseudoscience. In Massimo Pigliucci and Maarten Boudry eds., Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, 45-59. Chicago: University of Chicago Press.
Lamba, Shakti y Vivek Nityananda. 2014. Self-Deceived Individuals Are Better at Deceiving Others. PLoS One 9/8: e104562.
Levine, Timothy. 2010. A Few Transparent Liars: Explaining 54% Accuracy in Deception Detection Experiments. Annals of the International Communication Association 34/1: 41-61.
—. 2011. Sender Demeanor: Individual Differences in Sender Believability Have a Powerful Impact on Deception Detection Judgments. Human Communication Research 37/3: 377-403.
—. 2014. Truth-Default Theory (TDT): A Theory of Human Deception and Deception Detection. Journal of Language and Social Psychology 33/4: 378-392.
Levine, Timothy, Rachel Kim, y Lauren Hamel. 2010. People Lie for a Reason: Three Experiments Documenting the Principle of Veracity. Communication Research Reports 27/4: 271-285.
Lewandowsky, Stephan, Gilles Gignac, y Klaus Oberauer. 2013. The role of conspiracist ideation and worldviews in predicting rejection of science. PLoS One 8/10: e75637.
Lewandowsky, Stephan, Klaus Oberauer, y Gilles Gignac. 2013. NASA Faked the Moon Landing—Therefore, (Climate) Science Is a hoax. An Anatomy of the Motivated Rejection of Science. Psychological Science 24/5: 622-633.
Lilienfeld, Scott, Jeffrey Lohr, y Dean Morier. 2004. The Teaching of Courses in the Science and Pseudoscience of Psychology: Useful Resources. Teaching of Psychology 28/3: 182-191.
Lindeman, Maarjana y Kia Aarnio. 2006. Paranormal beliefs: Their dimensionality and correlates. European Journal of Personality 20: 585-602.
Lobato, Emilio et al. (2014) Examining the Relationship Between Conspiracy Theories, Paranormal Beliefs, and Pseudoscience Acceptance Among a University Population. Applied Cognitive Psychology 28: 617-625.
Loftus, Elizabeth y Katherine Ketcham. 1994. The Myth of Repressed Memory. NY: St. Martin’s Press.
Lord, Charles, Lee Ross y Marc Lepper. 1979. Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence. Journal of Personality and Social Psychology 37/11: 2098-2109.
Losh, Susan y Brandon Nzekwe. 2011. Creatures in the classroom: Preservice teacher beliefs about fantastic beasts, magic, extraterrestrials, evolution, and creation. Science & Education 20/5: 473-489.
Lundstrôm, Mats y Anders Jakobsson. 2009. Students’ Ideas Regarding Science and Pseudo-science in Relation to the Human Body and Health. Nordina 5/1: 3-17.
Majima, Yoshimasa. 2015. Belief in Pseudoscience, Cognitive Style and Science Literacy. Applied Cognitive Psychology 29: 552-559.
Mann, Heather et al. 2016. Cut from the Same Cloth. Similarly Dishonest Individuals Across Countries.
Journal of Cross-Cultural Psychology 47/6: 858-874.
Mascaro, Olivier y Dan Sperber. 2009. The Moral, Epistemic, and Mindreading Components of Children’s Vigilance towards Deception. Cognition 112/3: 367-380.
Mazar, Nina, On Amir, y Dan Ariely. 2008. The Dishonesty of Honest People: A Theory of Self-Concept Maintenance. Journal of Marketing Research 45/6: 633-644.
McCabe, David y Allan Castel. 2008. Seeing is believing: The effect of brain images on judgments of scientific reasoning. Cognition 107/1: 343-352.
McNally, Richard. 2005. Debunking Myths about Trauma and Memory. The Canadian Journal of Psychiatry 50/13: 817-822.
Metzger, Miriam y Andrew Flanagin. 2013. Credibility and trust of information in online environments: The use of cognitive heuristics. Journal of Pragmatics 59: 210-220.
Michener, Andrew y Martha Burt, 1975. Components of «authority» as determinants of compliance. J Pers Soc Psychol. 31/4:606-614.364 Angelo Fasce
Theoria 32/3 (2017): 345-365
Milgram, Stanley. 1963. Behavioral study of obedience. J Abnorm Soc Psychol 67: 371-378.
MSPSI. 2011. Análisis de situación de las terapias naturales. http://www.mspsi.gob.es/novedades/docs/analisisSituacionTNatu.pdf. Consultado el 18/04/2017.
Murphy, Sean et al. 2015. The Role of Overconfidence in Romantic Desirability and Competition. Pers Soc Psychol Bull. 41/8: 1036-1052.
Nyhan, Brendan y Jason Reifler. 2015. Does correcting myths about the flu vaccine work? An experimental evaluation of the effects of corrective information. Vaccine 3/3: 459-464.
Park, Hee Sun et al. 2010. How people really detect lies. Communication Monographs 69/2: 144-157.
Pennycock, Gordon et al. 2015. On the reception and detection of pseudo-profound bullshit. Judgment and Decision Making 10/6: 549-563.
Pigliucci, Massimo. 2007. The evolution-creation wars: why teaching more science just is not enough. McGill Journal of Education 42/2: 285-306.
—. 2012. The Demarcation Problem. A (Belated) Response to Laudan. In Massimo Pigliucci and Maarten
Boudry eds., Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, 9-28. Chicago: University of Chicago Press.
Praxmarer, Sandra. 2011. How a presenter perceived attractiveness affects persuasion for attractiveness-unrelated products. International Journal of Advertising 30/5: 839-865.
Quandt, Sara et al. 2009. Development of an International Questionnaire to Measure Use of Complementary and Alternative Medicine (I-CAM-Q). The Journal of Alternative and Complementary Medicine 15/4: 331-339.
Roediger, Henry y Kathleen McDermott. 1995. Creating False Memories: Remembering Words Not Presented in Lists. Journal of Experimental Psychology: Learning, Memory, and Cognition 4/21: 803-814.
Ronay, Richard et al. 2016. Embodied power, testosterone, and overconfidence as a causal pathway to risktaking. Comprehensive Results in Social Psychology 1-16.
Rosen, Richard. 1977. Psychobabble: Fast Talk and Quick Cure in the Era of Feeling. New York: Atheneum.
Rozenblit, Leonid y Frank Keil. 2002. The misunderstood limits of folk science: an illusion of explanatory depth. Cognitive Science 26/5: 521-562.
Schmidt K., R. Levenstein y Z. Ambadar. 2012. Intensity of smiling and attractiveness as facial signals of trustworthiness in women. Percept Mot Skills. 114/3: 964-78.
Serota, Kim y Timothy Levine. 2014. A Few Prolific Liars. Variations in the Prevalence of Lying. Journal of Language and Social Psychology 34/2: 138-157.
Serota, Kim, Timothy Levine, y Franklin Boster. 2010. The Prevalence of Lying in America: Three Studies of Self-Reported Lies. Human Communication Research 36/1: 2-25.
Smith, Susan. 1993. Body Memories: And Other Pseudo-Scientific Notions of «Survivor Psychology». Issues in Child Abuse Accusations 5/4: 220-234.
Smith, Megan, Robert Trivers, y William von Hippel. 2017. Self-deception facilitates interpersonal persuasion. Journal of Economic Psychology (In press).
Sokal, Alan. 2006. Pseudoscience and Postmodernism: Antoginists or fellow-travellers? In Garrett Fagan ed., Archaeological Fantasies: How Pseudoarchaeology Misrepresents the Past and Misleads the Public, 286-361. New York: Routledge.
Sokal, Alan y Jean Bricmont. 1999. Imposturas Intelectuales. Barcelona: Paidós.
Sperber Dan et al. 2010. Epistemic Vigilance. Mind & Language 25/4: 359-393.
Sumranwanich, Wimol y Chokchai Yuenyong. 2014. Graduate Students’ Concepts of Nature of Science (NOS) and Attitudes toward Teaching NOS. Procedia - Social and Behavioral Sciences 116: 2443-2452.
Steele, Claude. 1988. The psychology of self-affirmation: Sustaining the integrity of the self. Advances in experimental social psychology 21: 261-302.
Schwartz, Janet, Mary Luce, y Dan Ariely. 2011. Are Consumers Too Trusting? The Effects of Relationships
with Expert Advisers. Journal of Marketing Research 48: 163-174.
Tal, Aner y Brian Wansink. 2016. Blinded with science: Trivial graphs and formulas increase ad persuasiveness and belief in product efficacy. Public Understanding of Science 25/1: 117-125.Theoria 32/3 (2017): 345-365
Los parásitos de la ciencia. Una caracterización psicocognitiva del engaño pseudocientífico 365
Tavris, Carol. 2003. Foreword. In Scott Lilienfeld, Steven Lynn and Jeffrey Lohr eds., Science and pseudoscience in clinical psychology, IX-XVIII. New York: The Guilford Press.
The Editors Of The Lancet. 2010. Retraction – Ileal-lymphoid-nodular hyperplasia, non-specific colitis, and pervasive developmental disorder in children. The Lancet 375/9713: 445.
The Global Deception Research Team. 2006. A World of Lies. Journal of Cross-Cultural Psychology 37/1: 60-74.
Tobacyk, Jerome. 2004. A Revised Paranormal Belief Scale. International Journal of Transpersonal Studies 23/1: 94-98.
Trovon de Carvalho, Alexandre Luis y Waldyr Rodrigues. (2001). The Non Sequitur Mathematics and Physics of the «New Electrodynamics» Proposed by the AIAS Group. Random Operators and Stochastic Equations 9/2: 161-206.
Tsang, Jo-Ann. 2002. Moral rationalization and the integration of situational factors and psychological processes in immoral behavior. Review of General Psychology 6/1: 25-50.
Tseng, Yuan-Chueh et al. 2014 The Relationship Between Exposure to Pseudoscientific Television Programmes and Pseudoscientific Beliefs among Taiwanese University Students. International Journal of Science Education B/4: 107-122.
Tsujii, Takeo y Shigeru Watanabe. 2009. Neural correlates of dual-task effect on belief-bias syllogistic reasoning: a near-infrared spectroscopy study. Brain Research 1287: 118-125.
Tyler, Tom. 2006. Psychological Perspectives on Legitimacy and Legitimation. Annu. Rev. Psychol. 57: 375-400.
Tyler, Tom y Allan Lind. 1992. A Relational Model of Authority in Groups. Advances in Experimental Social Psychology 25: 115-191.
van der Toorn, Jojanneke et al. 2015. A Sense of Powerlessness Fosters System Justification: Implications for the Legitimation of Authority, Hierarchy, and Government. Political Psychology 36/1: 93-110.
van der Toorn, Jojanneke, Tom Tyler, y John Jost. 2011. More than fair: Outcome dependence, system justification, and the perceived legitimacy of authority figures. Journal of Experimental Social Psychology 47/1: 127-138.
von Hippel, William y Robert Trivers. 2011. The evolution and psychology of self-deception. Behavioral and Brain Sciences 34: 1-56.
Wakefield, Andrew et al. 1998. Ileal-lymphoid-nodular hyperplasia, non-specific colitis, and pervasive developmental disorder in children. The Lancet 351/9103: 637-41.
Walker, Richard et al. 2002. Science Education Is No Guarantee of Skepticism. Skeptic 9/3: 24-27.
Walton, Douglas. 2002. Fallacies Arising from Ambiguity. Dordrecht: Kluwer Academic Publishers.

Basado en el texto "Los parásitos de la ciencia. Una caracterización psicocognitiva del engaño pseudocientífico" de ANGELO FASCE, doctorando en Lógica y Filosofía de la Ciencia en la Universitat de València. Su campo de investigación es el criterio de demarcación y la pseudociencia como fenómeno psicológico. Es, además, un activo divulgador de la ciencia y de su filosofía.

No hay comentarios:

Publicar un comentario