جهان معرفی و نقد كتاب

خلاصه کتاب مزخرف خواندن از کارل تی. برگستروم

مزخرف خواندن توسط کارل تی. برگستروم و جوین وست درباره یادگیری نحوه تشخیص اشکال مختلف مزخرفات است.

کلیک می کند
اقتصاد اخبار اینترنتی با کلیک ها هدایت می شود، نه برای ایجاد رابطه. کیفیت اطلاعات دیگر مانند دوران قبل از اینترنت مهم نیست.

چگونه توجه را جلب کنیم؟ حس گرایی

راه دیگری توسط استیو ریسون کشف شد که ۱۰۰ میلیون مقاله منتشر شده در سال ۲۰۱۷ را بررسی کرد.

موفق ترین سرفصل ها حقایق را منتقل نمی کنند، آنها نوید یک تجربه احساسی را می دهند. رایج‌ترین عبارات در میان سرفصل‌های موفق فیس‌بوک عبارتند از: «تو را می‌سازد»، «قلبت را می‌شکند»، «عاشقت می‌کند»، «دوباره به نظرت می‌آید» یا «با تعجب نفست می‌کشد».

این در توییتر نیز کار می کند. موارد دیگر عبارتند از: “شما را به گریه می اندازد”، “شما را غاز می دهد.” و “قلبت را آب کن”

تجارب فکری نمی توانند رقابت کنند. این یک تغییر بزرگ در نحوه مصرف رسانه است. در زمان های قدیم، تیترها سعی می کردند به سادگی ماهیت داستان «مردان روی ماه راه می روند» را به شما ارائه دهند. فرود فضانوردان در دشت؛ سنگ‌ها را جمع کن، پرچم گیاه کن.»

واشنگتن پست اعلام می کند، “یک پنجم این شغل مشکل جدی نوشیدن دارد”، “چگونه از علت اصلی مرگ در ایالات متحده فرار کنیم”، CNN قول می دهد به شما اطلاع دهد. «ایسلند در گذشته داغ‌ترین مقصد گردشگری بود. چی شد؟” USA Today می پرسد. (برای اینکه شما را در تعلیق رها نکنیم: وکلا؛ تصادف رانندگی نکنید؛ و هیچ کس نمی داند.)

چاپخانه امکان ظهور کتابهای گوناگون را فراهم کرد. تلویزیون کابلی به مردم این امکان را می دهد که تجربه خود را سفارشی کنند. و قبل از سال ۱۹۸۷، دکترین انصاف کمیسیون ارتباطات فدرال ایالات متحده (FCC) سعی کرد پوشش متعادل موضوعات بحث برانگیز در اخبار را تضمین کند.

اما ریگان آن را لغو کرد. و با معرفی چرخه های خبری ۲۴ ساعته، کانال های خبری کابلی تکثیر شدند و حزبی تر شدند.

الگوریتم ها اوضاع را بدتر می کنند. فیس بوک، توییتر و دیگر پلتفرم های رسانه های اجتماعی از الگوریتم هایی برای یافتن پست ها و داستان های مرتبط استفاده می کنند. اما این الگوریتم‌ها نمی‌خواهند شما را در جریان قرار دهند، بلکه از شما می‌خواهند که در پلتفرم فعال بمانید. آنها بیشتر از آنچه که می خواهید بشنوید به شما می خورند، که باعث می شود مغرضانه تر شوید.

رسانه‌های اجتماعی همچنین به انتشار اطلاعات نادرست کمک می‌کنند – ادعاهای نادرست که عمداً برای فریب دادن نیستند. اولین کسی که اخبار را منتشر می کند بیشتر ترافیک را دریافت می کند، بنابراین ناشران از بررسی واقعیت صرف نظر می کنند.

شخصیت های جعلی
ایجاد شخصیت های جعلی به صورت آنلاین دشوار بود، زیرا برای اعتماد به فردی که با او چت می کردیم به عکس نیاز داشتیم.
حساب‌های جعلی گاهی اوقات از عکس‌های استوک یا تصاویر خراشیده‌شده از اینترنت استفاده می‌کنند – اما این موارد توسط کاربران باهوش با استفاده از ابزارهایی مانند جستجوی عکس معکوس Google به راحتی ردیابی می‌شوند.

دیگر نه. الگوریتم‌های جدیدی که به عنوان یادگیری ماشینی متخاصم شناخته می‌شوند، می‌توانند چهره‌های واقع‌بینانه‌ای از افرادی ایجاد کنند که وجود ندارند.

یک تصویر واقعی از یک شخص واقعی با یک تصویر کامپیوتری از شخصی که وجود ندارد جفت می شود. هدف شما حدس زدن درست است. مردم معمولاً خیلی بهتر از شانس انجام نمی دهند. و حتی با تمرین زیاد، مردم یک در پنج بار فریب می‌خورند.

الگوریتم‌های یادگیری ماشینی مشابه می‌توانند «فروشگاه صوتی» ایجاد کنند و صدا و ویدیوی جعلی تولید کنند که واقعی به نظر می‌رسد. این کار را با ترکیب صدا از ضبط های قدیمی و پیوند عبارات از یک مدل انجام می دهد. این ویدیوهای دیپ‌فیک می‌توانند اینطور به نظر برسند که هر کسی در حال گفتن یا انجام کاری است.

جردن پیل با اوباما یکی شد، که در پایان با صدای خود (حرف پیل) می‌گوید: «اینکه چگونه در عصر اطلاعات به جلو حرکت کنیم، تفاوت بین این است که زنده بمانیم یا به نوعی گنده شویم. خراب شده.”

سه راه برای دفاع در برابر خط اطلاعات بد

۱) فناوری: از هوش مصنوعی برای شناسایی اخبار جعلی استفاده کنید (اما به نظر می رسد یک نبرد شکست خورده است).

۲) مقررات دولتی: مشکل این است که با اصلاحیه اول قانون اساسی ایالات متحده (آزادی بیان) مخالف است. دوم، چه کسی می تواند آنچه را که به عنوان اخبار جعلی طبقه بندی می شود انتخاب کند؟

۳) آموزش: آموزش سواد رسانه ای و تفکر انتقادی. مشکل را از پایین به بالا حل کنید.

مطالعات علمی اغلب همبستگی هایی مانند ورزش و کاهش نرخ سرطان را پیدا می کنند. اما وقتی در اخبار گزارش می شود، مردم برداشت اشتباهی می کنند. آنها فکر می کنند که توصیه های تجویزی دریافت می کنند. مردم می خواهند بدانند چه کاری باید انجام دهند. وقتی مطبوعات مردمی موظف می‌شوند، این کار را بدون هیچ مدرکی دال بر علیت انجام می‌دهند.

مقالات علمی اصلی نیز این خطا را مرتکب می شوند. متخصصان تغذیه درباره فواید شیر کامل در مقابل شیر کم‌چرب در پیشگیری از چاقی بحث کرده‌اند و معمولاً از دومی حمایت می‌کنند. اما مطالعه اخیر روی کودکان در سانفرانسیسکو نشان داد که مصرف شیر کامل با کاهش چاقی مرتبط است. نویسندگان این مطالعه هشدار دادند که این یک همبستگی است و یک رابطه علی را نشان نمی دهد، اما عنوان چیز دیگری را نشان می دهد: “مصرف شیر پرچرب از چاقی شدید کودکان در لاتین تبارها محافظت می کند.”

نویسندگان اشتباه دیگری مرتکب می شوند، آنها پیشنهاد می کنند که نتایج با توصیه هایی که مصرف شیر چربی کمتری را ترویج می کنند، در تناقض است. اما هیچ مدرکی برای این موضوع وجود ندارد.

ارضای تاخیری
همه در مورد تست مارشملو شنیده‌اند – مطالعه‌ای که برای اندازه‌گیری همبستگی بین خودکنترلی و موفقیت در زندگی انجام شد. نکته اصلی این است که والدین باید فرزندان خود را به سخت کوشی شرطی کنند و سپس پاداش دریافت کنند تا آنها پاداش را با سخت کوشی مرتبط کنند. اما زمانی که این آزمایش سال ها بعد تکرار شد، نتایج متفاوتی به همراه داشت.

سیگار کشیدن نمی کشد؟

بین علل لازم و کافی تفاوت وجود دارد. مایک پنس استدلال کرد که هیستری عمومی در مورد سیگار کشیدن وجود دارد، در واقع از هر ۳ سیگاری، ۲ نفر به دلیل بیماری مرتبط با سیگار نمی میرند و از هر ۱۰ نفر ۹ نفر به سرطان ریه مبتلا نمی شوند. اما این مزخرف است. پنس می‌گوید که سیگار نمی‌کشد، اما بعد می‌گوید که یک سوم سیگاری‌ها به دلیل بیماری‌های مرتبط با سیگار می‌میرند. پنس علت کافی را با علت احتمالی ترکیب می کند. سیگار کشیدن برای تضمین بیماری های مرتبط با سیگار کافی نیست، اما احتمال مرگ فرد بر اثر بیماری ناشی از سیگار را به شدت افزایش می دهد. به طور مشابه، می توان گفت که معدنچیان به سرطان ریه مبتلا می شوند و هرگز سیگار نمی کشیدند. اما این استدلال علت ضروری را با علت احتمالی ترکیب می کند.

مشکلات علمی
دانشمندان زمانی ادعا کردند که همجوشی سرد را کشف کردند. این بعداً رد شد. عمیق‌ترین پایه‌های علم می‌توانند سؤالاتی باشند و حتی زمانی که با اکتشافات جدید ناسازگار باشند جایگزین شوند. ژنتیک دانان و زیست شناسان تکاملی فکر می کردند که ژن ها تنها وسیله نقلیه مولکولی توارث هستند. اما زمانی که توالی‌یابی ژنتیکی ارزان‌تر شد، شواهد قوی انباشته شد که نشان می‌داد چیزهای بیشتری در این تصویر وجود دارد. گاهی اوقات والدین لایه دومی از اطلاعات غیر ژنتیکی را در مورد اینکه چه ژن هایی را در شرایط مختلف فعال کنند، ارسال می کنند. این به عنوان اپی ژنتیک شناخته شد.

بحران تکرار

در بسیاری از موارد، نتایج علمی تکرار ناپذیر است. گاهی اوقات، این به دلیل تقلب است، اما این بسیار نادر است، و توضیح نمی دهد که چرا نیمی از نتایج در زمینه ها تکرار نشدنی هستند. چگونه می توانیم بحران تکرار را توضیح دهیم؟ مقادیر P

مقادیر P این احتمال را به ما می گوید که الگویی که می بینیم می تواند تنها از طریق شانس رخ داده باشد. اگر خیلی بعید است، می گوییم که نتیجه از نظر آماری معنی دار است. اما این مشکل است. یک فرضیه بعید، حتی با یک مقدار P بسیار کوچک، بعید باقی می ماند. معمولاً از P-value 0.05 استفاده می شود.

محققان به احتمال زیاد نتایج مثبت و نه منفی را منتشر می کنند. گاهی اوقات، آنها P-value را هک می کنند، آنها داده ها را برای تطبیق با P-value قرار می دهند نه اینکه هر چیزی را که پیدا می کنند منتشر کنند.

چرا اکثر یافته های پژوهشی منتشر شده نادرست هستند؟
در سال ۲۰۰۵، جان یونیدیس، اپیدمیولوژیست، ماهیت مشکل ساز تحقیقات علمی را توضیح داد. برای درک استدلال او، باید اشتباه نرخ پایه را بدانیم.

تصور کنید که شما یک پزشک هستید و در حال درمان بیماری هستید که فکر می کند به بیماری لایم مبتلا است. شما خون او را آزمایش می کنید تا آنتی بادی علیه باکتری هایی که باعث بیماری می شوند را بررسی کنید. متاسفانه جواب آزمایش مثبت شد. تست کاملا دقیق است، اما نه استثنایی. در حدود ۵ درصد مواقع مثبت کاذب را نشان می دهد.

احتمال ابتلای بیمار شما به بیماری لایم چقدر است؟ بسیاری از مردم، از جمله پزشکان، فکر می کنند که پاسخ ۹۵ درصد است. اما این اشتباه است.

نود و پنج درصد این احتمال است که آزمایش فردی که بیماری لایم ندارد منفی باشد. شما می خواهید بدانید که احتمال ابتلا به بیماری لایم در فردی که آزمایش مثبت می دهد وجود دارد. به نظر می رسد که این احتمال کم است زیرا بیماری لایم بسیار نادر است. در مناطقی که آندمیک است، از هر هزار نفر فقط یک نفر به آن مبتلا می شود. بنابراین، تصور کنید ۱۰۰۰۰ نفر را آزمایش کنید. انتظار دارید حدود ۱۰ مثبت واقعی و حدود ۰.۰۵ × ۱۰۰۰۰ = ۵۰۰ مثبت کاذب داشته باشید. کمتر از ۱ نفر از هر ۵۰ نفر از کسانی که آزمایششان مثبت است، واقعاً آلوده هستند. بنابراین، شما انتظار دارید که بیمار شما کمتر از ۲ درصد احتمال ابتلا به این بیماری را داشته باشد، حتی پس از مثبت شدن آزمایش.

مغالطه مشابه، مغالطه دادستان است. تصور کنید از شخصی به دلیل اینکه اثر انگشتش روی اسلحه قتل بود شکایت شده است. و شکایت کننده استدلال کرد که یک در ۱۰ میلیون احتمال وجود دارد که مظنون بی گناه باشد و اثر انگشت مطابقت داشته باشد. به نظر می رسد این شواهد قطعی باشد، اما در اینجا، احتمال محاسبه شده احتمال تطابق است، با توجه به اینکه فرد بی گناه است. متهم اعتراض می‌کند و می‌گوید که در واقع از آنجایی که ۶۰ میلیون رکورد در پایگاه داده وجود دارد، پس در ایالات متحده، ۶ نفر هستند که اثر انگشت مشابه دریافت می‌کنند که ۵ نفر از آنها بی‌گناه خواهند بود. بنابراین، با توجه به اینکه اثر انگشت او مطابقت دارد، احتمال واقعی این است که فرد بی گناه باشد (ما این را با اطمینان می دانیم). و در اینجا، ما یک احتمال متفاوت دریافت می کنیم. تنها ۱/۶ احتمال دارد که او گناهکار باشد یا ۵/۶ احتمال اینکه او بی گناه باشد.

با وجود این موضوع، بیایید به Ioannidis برگردیم. ایوانیدیس در مقاله‌اش «چرا بیشتر یافته‌های پژوهشی منتشر شده نادرست هستند»، قیاس بین مطالعات علمی و تفسیر آزمایش‌های پزشکی را ترسیم می‌کند. او فرض می‌کند که به دلیل سوگیری انتشار، بیشتر یافته‌های منفی منتشر نمی‌شوند و ادبیات عمدتاً نتایج مثبتی را شامل می‌شود. اگر دانشمندان فرضیه‌های غیرمحتمل را آزمایش کنند، اکثر نتایج مثبت مثبت کاذب خواهند بود، همانطور که اکثر آزمایش‌ها برای بیماری لایم، بدون وجود سایر عوامل خطر، مثبت کاذب خواهند بود.

نویسندگان با ریاضیات Ioannidis بحث نمی کنند. اما آنها با فرضیات او استدلال می کنند. برای اینکه بیشتر یافته‌های منتشر شده نادرست باشند، آزمایش‌های علمی باید مانند بیماری‌های نادر باشند: بسیار بعید است که نتیجه مثبتی ایجاد کند. اما دانشمندان برای انتشار کارهای جالب پاداش دریافت می کنند و انتشار نتایج منفی دشوار است. ما از دانشمندان انتظار داریم که فرضیه‌ها را آزمایش کنند، اگرچه تصمیم‌گیری نشده است، اما احتمال درستی به نظر می‌رسد.

اگر بخواهیم واقعاً میزان سوگیری انتشار مشکل را اندازه گیری کنیم، باید بدانیم (۱) چه کسری از فرضیه های آزمایش شده واقعاً درست هستند و (۲) چه کسری از نتایج منفی منتشر می شوند. اگر هر دو کسر بالا باشند، نگرانی چندانی نداریم. اگر هر دو خیلی کم باشند، ما با مشکل مواجه هستیم.

بنابراین، آنها استدلال می کنند که دانشمندان فرضیه هایی را آزمایش خواهند کرد که شانس خوبی برای درست بودن دارند. این شانس می تواند ۱۰ درصد از ۷۵ درصد باشد، اما بعید است که ۱ درصد یا ۰.۱ درصد باشد. در مورد انتشار نتایج منفی؟ در حدود ۱۵ درصد مواقع اتفاق می افتد. در زیست پزشکی، ۱۰ درصد. روانشناسی اجتماعی؟ فقط ۵ درصد ما نمی دانیم که آیا این به این دلیل است که روانشناسان کمتر احتمال دارد نتایج منفی را منتشر کنند یا آزمایش هایی را انتخاب می کنند که احتمال بیشتری برای ایجاد نتایج مثبت دارند.

کسری از نتایج منتشر شده که منفی هستند چیزی نیست که ما واقعاً می خواهیم بدانیم. ما می خواهیم کسری از نتایج منفی که منتشر می شود را بدانیم.

چگونه می توانیم آن را بدست آوریم؟

ما باید فایل های مدفون در کشوهای فایل را بررسی کنیم. اریک ترنر در سازمان غذا و دارو راه حلی عالی برای حل این مشکل پیدا کرد. در ایالات متحده، زمانی که محققان یک کارآزمایی بالینی، آزمایشی با استفاده از افراد انسانی برای آزمایش نتایج درمان‌های پزشکی انجام می‌دهند، باید (طبق قانون) این کارآزمایی را در FDA ثبت کنند. آنها باید مدارکی را بایگانی کنند که توضیح دهد کارآزمایی برای آزمایش چه چیزی طراحی شده است، چگونه انجام می شود و نتایج چگونه اندازه گیری می شود. پس از آزمایش، تیم باید نتایج را به FDA گزارش کند. اما آنها مجبور نیستند این نتایج را در یک مجله علمی منتشر کنند.

این سیستم به ترنر و تیمش راهی برای شمارش کارآزمایی های منتشر شده و منتشر نشده در یک حوزه تحقیقاتی داد. Turned فهرستی از ۷۴ کارآزمایی بالینی را با هدف ارزیابی اثربخشی ۱۲ داروی مختلف ضد افسردگی گردآوری کرد. نتایج ۵۱ مورد از این کارآزمایی ها منتشر شد که ۴۸ کارآزمایی با نتایج مثبت (دارو موثر است) و ۳ مورد با نتایج منفی بود.

اگر کسی به ادبیات نگاه می کرد، به این نتیجه می رسید که این داروهای ضد افسردگی موثر هستند.

اما با دسترسی به آزمایش‌ها همانطور که در ابتدا ثبت شد، FDA تصویر بسیار متفاوتی را مشاهده کرد. آنها ۷۴ کارآزمایی را مشاهده کردند که ۳۸ کارآزمایی نتایج مثبت، ۱۲ کارآزمایی نتایج مشکوک و ۲۴ کارآزمایی نتایج منفی به همراه داشت. از این اعداد می توان به نتیجه بدبینانه تری رسید – که به نظر می رسد برخی از داروهای ضد افسردگی در برخی شرایط تا حدودی کار می کنند.

چه خبر است؟ چگونه کارآزمایی‌های بالینی با میزان موفقیت ۵۱ درصد در ۹۴ درصد از مقالات منتشر شده موفق گزارش شدند؟

یک دلیل این است که تقریباً همه نتایج مثبت منتشر شده است، اما کمتر از نیمی از نتایج منفی / مشکوک منتشر شده است. بدتر از آن، از ۱۴ نتیجه منفی / مشکوک منتشر شده، ۱۱ نتیجه به عنوان یافته های مثبت بازنویسی شدند.

یک ملوان فقط بخشی از کوه یخ را بالای آب می بیند، به همین ترتیب، یک محقق فقط نتایج مثبت را در ادبیات علمی می خواند. این امر تشخیص اینکه واقعاً چه اتفاقی می افتد را دشوار می کند.

خوشبختانه راهی برای تخمین اندازه قطعه غوطه ور کوه یخ وجود دارد. یکی از روش‌های متاآنالیز است که همزمان به چندین مطالعه می‌پردازد. با انجام این کار، می‌توانیم ببینیم چه زمانی ادبیات منتشر شده احتمالاً نمایانگر مجموعه‌ای از آزمایش‌های انجام‌شده است، و زمانی که ادبیات منتشر شده رفتار بد را منعکس می‌کند (هک کردن P-value، سوگیری انتشار). درک چگونگی انجام این کار به خوبی از نظر آماری یک منطقه داغ است. پژوهش.

چگونه تشخیص دهیم که یک مقاله علمی مشروع است؟ اولاً، هر مقاله علمی می تواند اشتباه باشد، صرف نظر از اینکه کجا منتشر شده است یا چه کسی آن را نوشته است، یا حتی چقدر از استدلال های آن پشتیبانی می شود.

لینوس پاولینگ دانشمندی باهوش بود که تنها کسی بود که دو جایزه نوبل مشترک دریافت کرد، جایزه شیمی و جایزه صلح – اما او همچنین مقالات و کتاب‌هایی منتشر کرد که کاملاً اشتباه بودند، از ساختار مارپیچ سه‌گانه پیشنهادی‌اش. از DNA به نظرات او در مورد فواید دوزهای بالای ویتامین C می‌پردازد. طبیعت و علم دو معتبرترین علوم پایه هستند، اما آنها نیز زوزه‌کشی‌هایی را منتشر کرده‌اند. در سال ۱۹۶۹، ساینس مقاله‌ای در مورد پلیمری از آب به نام پلی واتر منتشر کرد که به ترس محققان دفاعی از “شکاف چند آب” بین ایالات متحده و روسیه کمک کرد. نیچر در سال ۱۹۸۸ مقاله ای اشتباه منتشر کرد که مدعی بود نشان می دهد هومیوپاتی می تواند موثر باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *