Does Facebook polarize our society, and how do we stop it?

Note: this post has received a large amount of interest, and I was asked to translate it into English. It was translated by one of the blog's readers (thanks!), so now you can read it in English as well. Enjoy!

————-

In the last couple of days I realized something horrible: I no longer see extreme right or left wings opinions on Facebook.

Do you think I’m joking? I am dead serious. I have more than 3000 friends on Facebook, and I am convinced that some hold extreme right wing party ideology while others would consider themselves extreme left. When I venture into my Facebook Feed, i.e. the page that combines the new posts my friends wrote, I am exposed to cakes they baked, the cat they thought was adorable and the recent diaper they changed, their loves and fears and other joys. Just one thing is missing: not even one extreme opinion to spare.

This is a disturbing phenomenon. After all, we are currently in the middle of a military operation in Gaza, hotly disputed by many in Israel and supported by many others. I hear about great debates being fought on Facebook and I know full well that the social network should represent everything that happens in the physical world. It should reflect the conversations by the water cooler, so to speak. If so, where did all those extreme opinions disappear? Could it be that the only way I can take part in the discussions that shape Israeli society, is by actively skimming the private walls of my friends and find out what was hidden from me?

But this is not the only discussion I was banned from. In the last year I began to realize Facebook was actively obscuring yet another sector of my opinionated friends from my Feed: Vegans.

Half-truths and lies

In 2013 I started noticing something strange: my vegan friends were gone.

I don’t mean they stopped being my friends. For better or worse, they stayed in my friend list. If I would have bothered to enter their profile page, then I could read their posts, see the pictures they uploaded and chat with them as much as I cared for. But I could simply not find many of their posts on my Facebook feed.

We all use the Feed page but rarely are we aware of its full meaning. Every time we log in to Facebook, a complicated algorithm selects a prized number of statuses it 'thinks' we would like most, or ones that fit perfectly to our hobbies and interests. Since most of us have several hundred online friends and not nearly enough time to read all the posts they keep uploading every hour, it is obvious why we need such an algorithm that will pick and choose the posts suitable for our likings.

And thus my vegan friends were gone.

In retrospect, I can see how that happened. People who read my recent blog posts know I believe that animal experimentation in the lab is critically important for the progression of medicine. I also eat meat several times a week and have never minded looking at picture of a sizzling steak. I believe that throughout my years of using Facebook, the company’s algorithms tracked my actions. They noticed I press “Like” on steak pictures and animal testing supporting posts but will never give praise to a tortured animal post. I actively hold myself from diving into comment debates about the inherent evil of eating meat. I read these discussions to understand better the other side but will never post anything on my behalf.

According to Brian Boland, VP Ads Product Marketing at Facebook, the company’s algorithms should be able to sift through 1,500 posts that could appear each time an average user logs in to the site. This is an enormous surplus of information that needs to be boiled down to 300 posts our feed could hold[i]. To choose the posts that the user would like to be exposed to, the algorithm looks on different aspects that include according to an engineer at Facebook, Lars Backstrom (quoted in The Guardian): “how often you interact with a friend, page or public figure; how many likes, shares and comments individual posts have received; how much you have interacted with that kind of post in the past;…”[ii]

Based on the expert opinions cited above, the algorithm that analyzed my behavior quickly realized that my opinions are very different from my vegan friends, and started to modify my news feed to my own areas of interest. And so, every time I log in to Facebook I get updated about what happens on the train in Israel (I take the train everyday), I receive new and interesting articles about atheism (I am an atheist), and revealing pictures of my online female friends (I still don’t know why). I will definitely not get an article about the hardship of living in the periphery of Israel, statuses written by extreme orthodox Jews or posts from the aforementioned vegans. This algorithm de facto created a tall barrier for me without me knowing about it or asking for it. And what’s most important about this barrier is not its height, but the fact it’s invisible: I had no idea it existed, or the reasoning behind its filtering. All I know is that every day the opinions I am exposed to online seem to follow my own opinions in a very suspicious way. At the very least I can say that the information I am reading online no longer challenges my beliefs in any significant way.

And that is a very big problem.

A Net Polarized

In 1961 a student by the name of James Stoner ran a simple experiment. Test subjects were asked to give advice to a certain person (let’s call him Mark) whether he should quit his job and go work for a small company that could give him equity, but might also go bankrupt leaving Mark with nothing. Stoner asked the subjects to form an opinion on their own, and then divided them into random groups of six. Each group discussed the issue and then achieved a collective decision about the path Mark should take. Strangely enough, the group as a whole usually preferred for Mark to take a risk for greater profit potential. [iii] In professional words, they were less risk averse.

These results surprised the experts in the field of management and decision making, since the common belief these days was that groups were more careful, cautious and moderate in making decisions. It is obvious why things should be so at a quick glance: in a group, participants are supposedly exposed to a wide array of opinions that will help subjects see a problem from many sides and not only from their own side. Unfortunately, Stoner’s research and many others that followed presented an opposite and more accurate reality: individuals who come to a group discussion with one opinion, tend to leave that discussion with a more extreme version of the original opinion. ([iv]) They become polarized.

Group Polarization tends to happen in online discussion too. In fact, research findings show that polarization tends to be more extreme when subjects do not see each other and are forced to hold the discussions online ([v]). The polarization also occurs when subjects play games such as the Dictator Game, a game that analyzes the participant’s ability to see the world from the opponent’s point of view.

These findings are particularly relevant in the field of business management, where managers are encouraged to have group discussions about potential decisions. However, when the discussion is mismanaged, then the barriers that usually urge us to take a more cautious solution are forgotten. The group as a collective of individuals loses the ability of a single person to think like the other side does. It loses its empathy and thus prevents itself (the group and its members) from collaborating with others.

What are the reasons for group polarization? According to psychologists that research the phenomenon, one of the main reasons is relying on arguments that seem to the members of the group logical and reasonable, but which originate only within the group. These arguments are not challenged by external ideas and opinions coming from outside the group, and that shackles the entire team by their original opinion, that only keeps getting more extreme since members keep competing with one another about who is more loyal to the cause ([vi]).

Facebook and Israeli society

How is group polarization related to Facebook's filters and algorithms? When Facebook chooses to sift through the posts and statuses I see my friends publish, it has very real potential of enhancing group polarization. The extreme vegans, the extreme leftists, the extreme rightists, the extreme atheists and all the rest, are partially a product of a divided and categorized social network. That network delivers to every person a personalized virtual 'habitat' that will get them to log in again and again and to relish on the fact that all of their friends think in a similar fashion. I obviously do not suggest that this is the sole reason for extremists’ existence, but research does strongly suggest that when a person sees that most of their friends support the cause they believe in, that person's beliefs tend to become stronger, and challenging these views becomes more difficult.

This is a frightening situation, and one I fear will only get worse in the near future. Facebook’s purpose is, after all, to be profitable. I do not make this statement as an accusation, but simply as the definition of publicly traded company. Facebook’s economic model relies on people logging in everyday, thus exposing themselves to advertisements from companies who pay Facebook for the right to advertise in the social network. This incentivizes Facebook to create a virtual environment to which people would like to log in again and again and stay there as long as they can. In order to do so, Facebook changes the social environment of our feed to make it more convenient to us than the physical world, where we are forced to be aware of the other side’s point of view.

This, at least, is one of the ideas standing behind the filtering algorithm. It obviously serves us well (since no sane person can go over 1,500 posts by his or her friends), but it has its potential downfalls, even when its purpose is benign. Most frightening of all of these downfalls, is the fact that we – the public – do not know how the algorithm works, and what are its parameters. And we cannot hold back that which we do not understand. And if we don't understand it, then we remain unaware of just how much it filters from our eyes and mind.

In the worst situation I see possible, the other side just disappears in certain social networks. We don’t even need to know that that side and its opinions exist, they will be filtered from our reach, unless we actively search for them. Can you make an entire point of view disappear? Not necessarily. You could instead be exposed just to stereotypical caricature that represent the “other side” in a ridiculous manner, and not to their complicated opinions and beliefs. This might be even more dangerous, since you'll think you understand the world and others, but will only obtain a very simplistic version of it all.

Is there a solution?

How can we prevent group polarization online? The easiest thing to do would be to change the settings on the filter so that it no longer selects the posts you see by interest, but by the time published. However, this is an act most people will not do, as the default setting is the one they usually stick with.

Legal systems around the world have not yet noticed the power social networks have on shaping public opinion. One could hope that governments will require social networks to set the default filter to work by time, or to present a more balanced view for the user. It might be that this requirement will come from the users themselves who will take offence to being manipulated by algorithms. But probably not.

The solution I found for myself is quite simple, and yet almost physically painful. I still want to use the filter to avoid much of the 'friendly spam' around me (no offense, mom, but I don't need to be alerted whenever you do your fingernails). So I keep the filter active, and as a result do not get exposed to extreme posts. However, some of my friends reply and describe their extreme views on my own posted opinions. These opinions make me furious; they insult me and make me want to leave the computer with disgust. This is exactly why I make an effort to never delete other peoples' posts, ignore them or unfriend them. In the last year I have not unfriended any of my Facebook friends for holding opinions opposite to mine.

And if that’s not enough, I also 'like' random posts to confuse the algorithm. It's a petty revenge, I know, but still.

Will these steps help me avoid from getting my opinions reflected and amplified back at me by my friends? Probably not. I feel myself becoming more and more extreme, partly because I'm getting older and more vindictive, and partly because many of my friends online share my own opinions. I am also aware that some of my friends who have opposite opinions choose to unfriend me (after all, I must be pretty annoying to them!), thus leaving me in my own self-focused group whether I want to or not. To try and counter that I make an effort to read different views in a wide spectrum of news media, from the most liberal newspapers to the extreme right wing. I listen to religious leaders’ podcasts and read atheists blogs.

This is a confusing and complicated way to obtain an individual view on the world we live in, but as of today it is still free and open to us all – and I believe that if you take this road, you will be the better for it.

—————

Dr. Roey Tzezana

Dr. Roey Tzezana has a PhD in Nano-technology, and in recent years has conducted research at the Unit for Technology & Society Foresight at Tel Aviv University. He's currently a research fellow at Yuval Ne'eman Workshop for Science, Technology & Security, and chief futurist and scientist of TelaLabs – a communal lab in Israel. He's a graduate of the Singularity University managers' course, a lecturer in the academy about bio-medical engineering and emerging and disruptive technologies, and is judging in many innovation and entrepreneurship competitions. Dr. Tzezana provides consultation for various ministries and institutes, including the Israeli police and the Ministry of Defense, and is often invited to speak on subjects related to the future, disruptive technologies and innovation. His first book, "Guide to the Future", has been released at the end of 2013, became an instant bestseller with three editions and in these days is being translated into several languages.

References

[i] B. Boland, "Organic Reach on Facebook: Your Questions Answered," Facebook, 5 6 2014. [Online]. Available: https://www.facebook.com/business/news/Organic-Reach-on-Facebook. [Accessed 27 7 2014].

[ii] S. Dredge, "How does Facebook decide what to show in my news feed?," The Guardian, 30 6 2014. [Online]. Available: http://www.theguardian.com/technology/2014/jun/30/facebook-news-feed-filters-emotion-study. [Accessed 27 7 2014].

[iii] J. A. F. Stoner, "A comparison of individual and group decision involving risk," 31 7 1961. [Online]. Available: http://dspace.mit.edu/bitstream/handle/1721.1/11330/33120544.pdf. [Accessed 5 6 2014].

[iv] D. G. Myers, "Polarizing Effects of Social Interaction," in Group Decision Making, Academic Press, 1982, pp. 125 – 161.

[v] L. M. V. Swol, "Extreme members and group polarization," Social Influence,vol. 4, no. 3, pp. 185 – 199, 2009.

[vi] D. G. Myers, "Polarizing Effects of Social Interaction," in Group Decision Making, Academic Press, 1982, pp. 125 – 161.

Leave a Comment

Filed under Articles in English, Uncategorized, ספקנות

האם פייסבוק גורמים להקצנה של הימין והשמאל, ואיך להפסיק את זה

בימים האחרונים התחוורה לי תופעה מזעזעת: אני לא רואה דעות של ימנים או שמאלנים קיצוניים בפייסבוק.

חושבים שאני צוחק? אני רציני לגמרי. יש לי יותר משלושת-אלפים חברים בפייסבוק, ואני משוכנע שחלקם ימנים קיצוניים, ואחרים מתוכם שמאלנים קיצוניים. כאשר אני נכנס ל- "פיד", כלומר לעמוד המרכז את הסטטוסים החדשים שכתבו חבריי. בעמוד זה אני נחשף לעוגות שהם בישלו, לחתול שליטפו ולחיתול שהחליפו לילד, לאהבותיהם ולפחדיהם ולשמחותיהם השונות. רק לדבר אחד אני לא עד: אפילו דעה קיצונית אחת לא מצאתי בקרב חבריי.

זוהי תופעה מטרידה. אחרי הכל, אני שומע בכל מקום על ויכוחי הענק המתנהלים ברשת הפייסבוק, וזו אמורה לשקף עבורי את המתרחש בחיים הפיזיים. אז לאן הם נעלמו עבורי? האם הדרך היחידה עבורי לקחת חלק בדיונים שמעצבים את פני החברה הישראלית, היא לעבור באופן אקטיבי בקירותיהם הפרטיים של חבריי ולגלות את הסטטוסים שנעלמו מעיניי?

אבל אלו אינם הדיונים היחידים שאיני שותף להם. למעשה, במהלך השנה האחרונה התחלתי להבין שהפייסבוק שלי מנדה אותי גם מנתח הולך וגדל של החברה הישראלית: הטבעונים.

 

למה אני לא רואה סטטוסים של קיצוניים בפייסבוק שלי??

למה אני לא רואה סטטוסים של קיצוניים בפייסבוק שלי??

 

חצאי-אמיתויות ושקרים

בשנת 2013 נחשפתי לתופעה מוזרה: חבריי הטבעוניים נעלמו מהפייסבוק שלי.

איני מתכוון שהם הפסיקו להיות חבריי, לטוב או לרע. אם הייתי טורח ומקליד את שמם כדי למצוא את עמודי הפרופיל שלהם, הייתי מגלה שהם עדיין רשומים כחבריי. הייתי יכול לקרוא את הסטטוסים שפרסמו, לעיין בתמונותיהם ולהתכתב עמם כאוות נפשי. אך את הסטטוסים שהם נהגו לפרסם, לא הייתי רואה בעמוד החדשות של פייסבוק.

כולנו מכירים את עמוד החדשות של פייסבוק, אך מעטים מבינים את משמעותו המלאה. בכל פעם שאנו נכנסים לאתר, אלגוריתם מתוחכם בוחר ומציג בפנינו מספר סטטוסים שהוא סבור שיעניינו אותנו במיוחד, או שמתאימים בדיוק לתחומי העניין שלנו. מכיוון שלרובנו יש לפחות כמה מאות חברים מקוונים, ואין לנו זמן לקרוא את הסטטוסים המגוונים והשונים שהם מפרסמים מדי יום ומדי שעה, ברור מדוע צריך אלגוריתם שיסנן את המסרים אליהם ניחשף, ויסתיר את ההודעות שאיננו מעוניינים לראות.

וכך נעלמו חבריי הטבעוניים מהפייסבוק.

במבט לאחור, אני מתחיל להבין כיצד הפסקתי לראות את הודעותיהם. כפי שניתן להבין מהעמודים האחרונים, אני מאמין שלניסויים בבעלי החיים יש חשיבות רבה ברפואה המודרנית. אני גם נוטה לאכול בשר מספר פעמים בשבוע, ואוהב לראות תמונות של סטייקים טובים. לאורך כל שנות השימוש שלי בפייסבוק, האלגוריתמים של החברה התחקו אחר כל פעולותיי. הם שמו לב שאני מסמן ב- 'לייק' תמונות של סטייקים וסטטוסים התומכים בניסויים בבעלי חיים, אך נמנע באדיקות מלשבח סטטוסים הכוללים תמונות של חיות מעונות. אני גם מעדיף שלא להיכנס לדיונים בסטטוסים הנוגעים ברוע האינהרנטי שבאכילת בשר. אני אוהב לקרוא את הדיונים הללו כדי להבין את נקודת המבט של הצד השני, אך לא להשתתף בהם.

לפי בריאן בולאנד, המוביל את קבוצת שיווק הפרסום בפייסבוק, האלגוריתמים של החברה צריכים לבחור כיצד לסנן את 1,500 הסטטוסים שיכולים להופיע בעמוד החדשות בכל פעם שמשתמש ממוצע נכנס לאתר. זהו עודף עצום של מידע, שיש לצמצם ל- 300 הסטטוסים המופיעים בעמוד החדשות [1]. כדי להותיר רק את הסטטוסים שהמשתמש ירצה להיחשף אליהם, בוחן האלגוריתמים גורמים שונים הכוללים, לפי מגזין הגרדיאן (המסתמך על דברי המהנדס לארס בקסטרום מפייסבוק) – "מידת התכיפות באינטראקציה עם חבר, עמוד או דמות ציבורית; לכמה לייקים, שיתופים והערות זכו הודעות מסוימות; כמה היית באינטראקציה עם סוג כזה של הודעות בעבר…" [2]

האלגוריתם שסקר את פעולותיי לפי הגורמים המצוטטים 'הבין' במהרה כי עמדותיי רחוקות מאלו של חבריי הטבעוניים, והחל להתאים את החדשות שקיבלתי לפי תחומי העניין שלי. וכך, כיום אני מקבל בכל כניסה לפייסבוק הודעות של חברים על המתרחש ברכבת (מאחר שאני נוסע כמעט כל יום ברכבת), על מאמרים חדשים ומעניינים של אתאיסטים (אני אתאיסט), ותמונות חושפניות במיוחד של ידידותיי המקוונות (אני עדיין לא בטוח למה). אני במפורש לא מקבל הודעות על מאמרים שסוקרים את קשיי החיים בעיירות פיתוח בפריפריה, או הודעות שנכתבו על-ידי דתיים קיצוניים, או – כפי שציינתי – על ידי טבעונים. האלגוריתם יצר גדר הפרדה גבוהה עבורי מבלי שאדע זאת ומבלי שאגיד לו לעשות זאת. וגדר ההפרדה הזו אינה רק גבוהה, אלא גם בלתי-נראית. איני יודע אפילו שהיא קיימת. אני רק יודע שרוב הסטטוסים החדשים אליהם אני נחשף מדי יום בפייסבוק, תואמים באופן חשוד לדעותיי הקיימות. לכל הפחות, הם נמנעים ברובם מלאתגר את אמונותיי באופן משמעותי.

וזו, אם עוד לא הבנתם, בעיה גדולה.

 

כשאין דיאלוג, יש הקצנה של עמדות.

כשאין דיאלוג, יש הקצנה של עמדות.

 

הרשת המקצינה

בשנת 1961 ערך סטודנט בשם ג'יימס סטונר מחקר פשוט למראית עין, ובו ביקש מהנבדקים לייעץ לאדם מסוים (נאמר, מויש'לה) האם עליו לפרוש מעבודתו הקבועה ולזנק לתוך עבודה בחברה צעירה ומבטיחה שתוכל גם לספק לו מניות – אך עלולה באותה המידה להיכשל בגדול. סטונר ביקש מהנבדקים לקבל החלטה בנושא בפני עצמם, ואז חילק אותם לקבוצות אקראיות בנות שישה אנשים. כל אחת מהקבוצות דנה בשאלה, ולאחר מכן קיבלה החלטה קבוצתית משותפת לגבי הדרך בה צריך מויש'לה לבחור. התוצאות היו ברורות וחד-משמעיות: הדיונים הקבוצתיים גרמו לנבדקים להקצין את עמדותיהם והיטו את ההמלצות באופן משמעותי לכיוון שהיה בעל סיכון גדול יותר, אך גם פוטנציאל גדול יותר לרווח  [3].

תוצאות אלו הפתיעו את כל המומחים בתחום הניהול וקבלת ההחלטות, מכיוון שהדעה השגורה באותם הזמנים הייתה שקבוצות הינן זהירות, שקולות ומתונות יותר בקבלת ההחלטות שלהן. ברור מדוע הדברים אמורים להיות כך במבט ראשון: בקבוצה נחשפים המתדיינים למגוון רחב של דעות שמסייעות להם לראות נושא מסוים מכל הצדדים, ולא רק מהצד המסוים והמוגבל שלהם. לרוע המזל, מחקרו של סטונר ושפע המחקרים שבאו בעקבותיו הראו תופעה הפוכה: אינדיבידואלים שמגיעים לקבוצה עם דעה מסוימת, מקצינים אותה עד לתום הדיונים [4].

הקצנה קבוצתית מתרחשת גם בקבוצות דיון ברשת. למעשה, מחקרים מעידים כי ההקצנה חריפה עוד יותר כאשר המתדיינים אינם יכולים לראות זה את זה פנים-אל-פנים, אלא נאלצים להסתפק בדיון דרך המחשב [6]. ההקצנה מתרחשת גם במשחקים כ- "משחק הדיקטטור" הבוחן (בין היתר) את יכולתם של המשתתפים להבין את ראיית העולם של היריב. נראה שבזמן הדיונים שנערכים בקבוצה כדי לקבל החלטה, נשכחים ונעזבים בצד המחסומים והמעצורים הקיימים בנפשו של כל אדם ומכתיבים עבורו את דרכי ההתנהלות המתאימות ביותר מול אנשים אחרים. הקבוצה כקולקטיב מאבדת את היכולת האינדיבידואלית להבין אינסטינקטיבית את דרך החשיבה של האחר. היא מאבדת את האמפתיה שלה, וכתוצאה – מאבדת חלק מהיכולת לשתף פעולה עם אחרים.

מהן הסיבות להקצנה הקבוצתית? לפי הפסיכולוגים החוקרים את התופעה, אחת הסיבות החשובות ביותר היא ההסתמכות על טיעונים הנראים לחברי הקבוצה הגיוניים ושקולים – אך שמגיעים כולם מתוך הקבוצה עצמה. טיעונים אלו אינם נתקלים בהתנגדות ראויה המגיעה מחוץ לקבוצה, ולכן הקבוצה נותרת כבולה בעמדה מקורית שרק הולכת ומקצינה, כאשר חברי הקבוצה מתחרים זה עם זה בהעלאת דעות הממחישות יותר ויותר כמה הם נאמנים לאותה עמדה [4]. ובסופו של דבר, כאשר העמדה המקורית הופכת להיות לא-רלוונטית ביחס למציאות (כפי שמתרחש תמיד בשלב מסוים), הקבוצה כולה נכשלת.

 

דובי הקוטב מודאגים לגבי החוסר בהקצנה. עוד בדיחה שעובדת טוב באנגלית. לחצו כאן למקור.

דובי הקוטב מודאגים לגבי הירידה בקיטוב בחברה. עוד בדיחה שעובדת טוב באנגלית. לחצו כאן למקור.

 

פייסבוק והחברה הישראלית

משמעות הדברים היא שכאשר פייסבוק בוחרת לסנן את המסרים שאני מקבל מחבריי, היא בהכרח מעודדת מצבים של הקצנה קבוצתית. הטבעונים הקיצוניים, השמאלנים הקיצוניים, הימנים הקיצוניים, האתאיסטים הקיצוניים וכל היתר – כולם תוצר של רשת מפולגת ומפולחת, המעניקה לכל אדם את סביבת המחייה והחשיבה המתאימה עבורו אישית ונועדה לגרום לו להיכנס לפייסבוק שוב ושוב ולרוות נחת ממכלול חבריו. איני טוען כמובן שזו הסיבה היחידה לקיומם של קיצונים מכל הצדדים, אבל אני בהחלט מאמין שכאשר אדם רואה שרוב חבריו בפייסבוק דוגלים בעמדותיו, הוא בהכרח מתחזק באותן עמדות ומתקשה לשקול דעות מנוגדות.

זהו מצב מפחיד, ואני חושש שרק יחריף בעתיד הנראה לעין. מטרתה של פייסבוק, אחרי הכל, היא להרוויח כסף. זהו אינו משפט הבא לשם גינוי, אלא הגדרה בלבד של מהות חברה הנסחרת בבורסה. המודל הכלכלי של פייסבוק מסתמך על כך שאנשים נכנסים לרשת החברתית באופן קבוע, וחושפים את עצמם למפרסמים שמשלמים לפייסבוק על הזכות להציג מודעות בשולי העמוד. פייסבוק מעוניינת לגרום ליותר ויותר אנשים להיכנס לרשת החברתית ולהישאר שם זמן ארוך ככל האפשר. לשם כך היא יכולה לשנות את סביבת העבודה של הגולשים כדי להפוך אותה לנוחה ונעימה יותר מהחיים בעולם הפיזי, בהם אנו חייבים להיות מודעים לנוכחותו של האחר.

בפייסבוק, בניגוד לעולם הפיזי, האחר פשוט נעלם. אנחנו אפילו לא חייבים לדעת שהוא ודעותיו קיימים. ואם הם קיימים, הרי שפעמים רבות איננו נחשפים אפילו לדעותיו המורכבות, אלא רק לקריקטורה סטריאוטיפית שהקבוצה שלנו יצרה עבור אותו האחר.

 

החברה הישראלית במבט-על. הקצנה ועוד הקצנה.

החברה הישראלית במבט-על. הקצנה ועוד הקצנה.

 

האם יש פתרון?

אז מה עושים כדי למנוע הקצנה קבוצתית וכדי להיחשף לדעות האחר? כיום, המחוקק עדיין לא שם לב לכוחן המכריע של הרשתות החברתיות בעיצוב דעות קהל ובהשפעה על הלכי רוח. ייתכן שבעשורים הקרובים תקום תגובת-נגד מצד הממשלה שתחייב את הרשתות החברתיות כפייסבוק להציג בפני המשתמש תמונה מורכבת יותר מזו הקיימת כיום. ייתכן שדרישה כזו תקום דווקא מהציבור עצמו, כאשר ילמד אודות המניפולציות שמעבירה אותו הרשת החברתית. ייתכן (ולדעתי אפילו סביר) שלא.

הפתרון בו אני בחרתי פשוט, ולא-נעים עד כדי סבל פיזי כמעט. איני נחשף אמנם לסטטוסים קיצוניים, אבל חלק מחבריי מפרסמים דעות קיצוניות בתגובות לסטטוסים שאני עצמי מעלה. דעות אלו מרתיחות אותי, מעליבות אותי וגורמות לי לרצות לעזוב את המחשב בשאט נפש. זו בדיוק הסיבה שאני נמנע באדיקות דתית כמעט מלסנן את התגובות, למחוק אותן, או להפסיק להתחבר עם האנשים שכתבו אותן. בשנה האחרונה לא מחקתי אפילו חבר אחד מרשימת החברים שלי בשל דעותיו. ואם זה לא מספיק, הרי שאני גם עושה לייקים אקראיים בפייסבוק כדי לבלבל את האלגוריתם.

האם צעדים אלו מספיקים כדי להימנע מהקצנה קבוצתית? כנראה שלא. אני חש את עצמי מקצין בדעותיי עם חלוף הזמנים, בין היתר מאחר שרבים מחבריי שותפים אליהן. אני גם מודע לכך שחלק מחבריי בוחרים לצאת מרשימת החברים שלי בשל אי-הסכמה עם אותן דעות, וכך מותירים אותי בתוך קבוצה ממוקדת משלי, בין שארצה או לא ארצה בכך. כדי לכפר, אני מנסה לקרוא חדשות ממגוון מקורות – החל מ- 'הארץ', דרך Ynet וכלה בערוץ 7. אני שומע פודקסטים של אנשי דת ושל ספקנים ואתאיסטים, הולך להפגנות הימין הקיצוני וחווה את כל מה שיש לעולם לתת לי.

זוהי דרך מוזרה, מבלבלת ומסובכת ליצירת דעה והשקפת עולם על החיים, אבל בינתיים היא עדיין פתוחה עבור כולנו – ואני חושב שאם תבחרו בה, תצאו נשכרים.

 

———————————————————————————————————————-

 

הערות מנהלתיות

1. אתם מוזמנים להירשם לעדכונים בבלוג בתיבה מימין.Futures_Guide_Hadmaya

2. ספרי החדש – "המדריך לעתיד: המהפכות הטכנולוגיות שישנו את חיינו" – ניתן לרכישה בחנויות הספרים.

 

 

מספר מקורות

[1] B. Boland, "Organic Reach on Facebook: Your Questions Answered," Facebook, 5 6 2014. [Online]. Available: https://www.facebook.com/business/news/Organic-Reach-on-Facebook. [Accessed 27 7 2014].
[2] S. Dredge, "How does Facebook decide what to show in my news feed?," The Guardian, 30 6 2014. [Online]. Available: http://www.theguardian.com/technology/2014/jun/30/facebook-news-feed-filters-emotion-study. [Accessed 27 7 2014].
[3] J. A. F. Stoner, "A comparison of individual and group decision involving risk," 31 7 1961. [Online]. Available: http://dspace.mit.edu/bitstream/handle/1721.1/11330/33120544.pdf. [Accessed 5 6 2014].
[4] D. G. Myers, "Polarizing Effects of Social Interaction," in Group Decision Making, Academic Press, 1982, pp. 125 – 161.
[5] C.-L. Sia, B. C. Y. Tan and K.-K. Wei, "Group Polarization and Computer-Mediated Communication: Effects of Communication Cues, Social Presence, and Anonymity," Information Systems Research, vol. 13, no. 1, pp. 70 – 90, 2002.
[6] L. M. V. Swol, "Extreme members and group polarization," Social Influence, vol. 4, no. 3, pp. 185 – 199, 2009.
[7] W. Heaven, "The 'filter bubble' is a sinister phenomenon. But Eli Pariser's alternative sounds even worse," The Telegraph, 21 6 2011. [Online]. Available: http://blogs.telegraph.co.uk/news/willheaven/100093155/the-filter-bubble-is-a-sinister-phenomenon-but-eli-parisers-alternative-sounds-even-worse/. [Accessed 7 6 2014].

 

 

 

11 Comments

Filed under הרשתות החברתיות, ספקנות

העולם המוגבל: כשילדים אינם מכירים את טבלת היסודות

הנה סיפור אמיתי.

לפני שנתיים חזר ילד קטן אחד לביתו, ושאל את אביו כמה יסודות יש בעולם. האב, שהיה חכם ומנוסה בדרכי הכימיה והמדע, השיב לו מיד שאנו מכירים כמעט 120 יסודות. אלו כוללים את המימן קל-הדעת, את הגרמניום המתכתי האפרפר, את האורניום הרדיואקטיבי, ואפילו את אחד היסודות האהובים עלי ביותר מסיבות ברורות – הצזיום. ולא, למקרה שתהיתם, הצזיום לא נקרא על שמי.

כל מי שצופה בסדרת המופת המצוירת "אווטאר, כשף האוויר האחרון", או ששיחק מבוכים ודרקונים בשלושים השנים האחרונות, או שקרא את כתבי אריסטו מלפני כמעט אלפיים וחמש-מאות שנים, יכול להבין את הבלבול שחווה הילד. אם קיימים בעולם יותר ממאה יסודות, למה כולם בכיתה מדברים רק על אדמה, אוויר, אש ומים? האב הסביר לילדו שמדובר בתפישת עולם עתיקת-יומין, שהתגבשה לפני שהאדם הצליח לחקור את הטבע לעומקו. הילד, גדוש עתה בחכמה שמעבר לשנותיו, חזר לכיתה וניסה להעמיד את חבריו על טעותם המשותפת.

אתם יכולים לנחש כיצד אלו הגיבו.

האבא והילד לא אמרו נואש. בכוחות משותפים הם פעלו ליצירת טבלה מחזורית המתארת את כלל היסודות בשפה העברית, חושפת את תמונות החומרים והמדענים שגילו אותם, ומספרת למה משמשים היסודות הללו בתעשייה, ברפואה ואפילו בלחימה. התוצאה הייתה מרהיבה והצדיקה את ההשקעה: תוך שנה אחת, הבינו ילדי הכיתה שהעולם כל-כך מופלא יותר ומעניין יותר מכל מה שחשבנו לפני כן.

אתם יכולים להוריד בעצמכם את הטבלה (ולפי מיטב המסורת המדעית, גם לבדוק אם אין בה טעויות ולשלוח ביקורת בונה לאב החרוץ בכתובת הבאה). באופן כללי יש לציין לשבח כל מאמץ שכזה לחינוך מדעי המגיע מהציבור הרחב, ומהורים שמדברים עם ילדיהם מדי יום ויכולים להבין בדיוק היכן נמצאים פערי ההבנה שלהם. אבל כל הנושא מעלה שאלה נוספת מעניינת: למה ילדים בכיתה ג' תקועים עדיין בהבנה של הטבע שהתגבשה לפני אלפי שנים?

 

טבלת היסודות הצבעונית

טבלת היסודות הצבעונית

 

רעיונות עתיקי-יומין

התפישה הרואה את האש, האדמה, האוויר והמים כיסודות בסיסיים, התהוותה עוד ביוון העתיקה ובתרבויות אחרות שהושפעו ממנה. כך ניתן למשל למצוא במסמך ה- 'קורה קוסמו' ("בתולת הקוסמוס") את הציטוט הבא מפי האלה המצרית איזיס –

"… מתוך הדברים החיים, בני, חלקם חברים לאש, וחלקם למים, וחלקם לאוויר, וחלקם לאדמה, וחלקם עם שניים או שלושה מתוך כל אלו, וחלקם עם כולם. ולעומת זאת, חלקם אויבים לאש, חלקם למים, חלקם לאדמה וחלקם לאוויר… לדוגמה, בני, החגב וכל הזבובים נמלטים מהאש; העיט והנץ והציפורים המעופפות האחרות בורחות מהמים…"

סדרת יסודות דומה (ששמה וו-קסינג) התקיימה גם בתרבות הסינית העתיקה, וכללה את העץ, האדמה, האש, המתכת והמים.

 

טבלת היסודות הסינית, לפי שיטת וו קסינג: עץ מייצר אש שמייצרת אדמה שמייצרת מתכת שמייצרת מים (טענות להפנות לסינים).

טבלת היסודות הסינית, לפי שיטת וו קסינג: עץ מייצר אש שמייצרת אדמה שמייצרת מתכת שמייצרת מים (טענות להפנות לסינים).

 

הסיבה העיקרית לכך שהסברים אלו התהוו לפני אלפי שנים, היא כנראה הפשטות האינטואיטיבית שלהם, שמלווה אותנו עד היום. כל ילד יכול להרגיש את הרוח ששורקת באוזניו, או לחוש את הלחץ שהאוויר מפעיל על כף ידו כאשר הוא מוציא אותה מחלון הרכב בזמן הנסיעה (אל תנסו את זה באוטו). באופן דומה, גם האדמה, האש והמים הינם רעיונות בעלי נוכחות פיזית ברורה. אנו הולכים על האדמה, מכינים חביתה על הכיריים, ושוטפים את עצמנו במים.

אבל מתי בפעם האחרונה דרכתם בטעות על צזיום ברחוב? טבלת היסודות רחוקה מלהיות בעלת נוכחות של ממש בחיי היום-יום שלנו, ובוודאי של אבותינו הקדמוניים. איננו זקוקים לה כדי לתאר את העולם שסביבנו.

קל להבין, לפיכך, מדוע בימי קדם הסתפקו הפילוסופים בארבעה או חמישה יסודות בלבד, עם תיקונים קלים בלבד. אריסטו, למשל, הוסיף לארבעת היסודות הגשמיים גם את ה- 'אתר' הערטילאי המספק נשמה וחיים לאדם ולבעלי החיים. אחרים הסבירו את קיומן של מתכות בחיבור של שני יסודות כאדמה ואש ביחד. מערכת היסודות שרדה גם את ימי הביניים, והחלה להשתנות באופן משמעותי רק כאשר הצליח הכימאי אנטואן לבואזיה להפריד את האוויר לחמצן ולמימן במאה ה- 18.

לבואזיה מצא את דרכו אל הגיליוטינה בגיל 51 שנים בלבד, אך כימאים רבים אחרים המשיכו את דרכו וחשפו יותר ממאה יסודות חדשים במאתיים השנים שחלפו מאז. הבנת היסודות הקנתה לאדם את היכולת לשחק עם כוחות הטבע, להפיק מתכות רבות-ערך כפלדה ואלומיניום במחירים אפסיים, וליצור חומרי צבע, טעם וריח.

אבל ילדים היום עדיין מכירים את האש, האדמה, האוויר והמים. ומסיבה טובה: אלו הסיפורים שהם שומעים, קוראים ורואים.

 

כשף האוויר האחרון

סדרת המופת המצוירת "אווטאר: כשף האוויר האחרון" מתארת עולם קסום שילדים ומבוגרים כאחד יכולים להתחבר אליו. אמנם אין בסדרת המקור "טוב" ו- "רע" מוחלטים, אך ניתן בהחלט למצוא בה מלחמה ויריבות בין ארבע אומות שונות. האם תצליחו לנחש מהן?

הנה רמז: אזרחי אחת האומות עוטים מדים צבאיים אדומים, אזרחי השנייה לבושים בפרוות מחממות בעלות גוון כחול, אזרחי השלישית בוחרים ברובם בבגדים פשוטים בצבע ירוק, ואזרחי הרביעית נהנים משרוואלים קלילים ואווריריים. (אפשר למצוא תיאור מלא של הבגדים באתר ויקי שנפתח ייעודית עבור הסדרה)

אני מניח שהבנתם כבר את הרעיון: אש, מים, אדמה ואוויר, כולם ביחד בפריים טיים בטלוויזיה.

אבל למה לעצור כאן? כשהייתי צעיר וטיפש בן 16, נהגתי לשחק מבוכים ודרקונים. אהבתי במיוחד להיות קוסם, שיכול היה לזמן יצורים שונים ומשונים, כ- "יסודנים" המורכבים כולם מיסוד לפי בחירת הקוסם. תרצו לנחש איזה יסודנים הייתי יכול לזמן? אדמה, מים, אוויר ואש.

 

יסודנים ממשחקי תפקידים מסורתיים.

יסודנים ממשחקי תפקידים מסורתיים.

 

אפשר להמשיך לפרט את רשימת משחקי המחשב, תכניות הטלוויזיה, משחקי הלוח וכל יתר הדרכים בהן אנו משתמשים כדי להנחיל לילדינו ידע שגוי לגמרי על עולם היסודות. אני לא חושב שיש באמת צורך. מתוך כל אלו, אני מכיר רק מספר סיפורים אחד שיוצא נגד המערכת. שמו ריץ' בורלו, והוא הסופר והאומן העומד מאחורי הקומיקס המוצלח "מסדר המקל". בעולמו של בורלו, השחקנים היצירתיים במיוחד נעזרים בהבנתם של היסודות כדי לזמן יסודני טיטניום (בעלי קושי וחוזק גבוהים במיוחד), או יסודני כלור (בעלי יכולת להרעיל את אויביהם דרך האוויר). אני עדיין מחכה ליסודני האורניום שלו, אבל אולי עדיף שלא לתת לשחקנים רעיונות מהסוג הזה.

 

יסודן טיטניום

יסודן טיטניום. מקור: The Order of the Stick

יסודן כלור. אפשר לדעת את זה לפי המספר האטומי שרשום לו על החזה.

יסודן כלור. אפשר לדעת את זה לפי המספר האטומי שרשום לו על החזה.

 

סיכום

אין ברשותי נתונים כמותיים בנוגע למספר הילדים המאמינים שקיימים רק ארבעה יסודות. גם לא הצלחתי למצוא נתונים כאלו בספרות המדעית, ונראה שיש מקום למחקר בנושא, המקשר בין מספר שעות הצפייה בטלוויזיה ומשחק במחשב מדי יום, לבין האמונה בארבעה יסודות. אף על פי כן, קשה להאמין שהמסרים המגיעים מכל כיוון בנושא זה נופלים על אוזניים ערלות. בוודאי ישנם ילדים רבים – ואולי גם כמה מבוגרים – המאמינים עדיין בתיאוריה הקלאסית של היסודות.

אבל האם זה באמת נורא כל כך?

ובכן, לא. באמת שלא. ההיסטוריה כבר התקדמה מאז ימיו של אפלטון, כאשר טען שאסור לספר לילדים סיפורי כזבים מאחר שאלו מעצבים את נפשו של הילד וגורמים לו להאמין בשקרים. איננו חיים ביוון העתיקה, ומקובל עלינו שגם סיפורי אימה, מתח, פנטזיות ואגדות קסומות יכולים לפתח את נפש הילד ולהעשיר את עולם הערכים שלו והבנתו את המציאות באמצעות מטאפורות, אלגוריות ומשלים.

אז לא. זה לא נורא בכלל שילדים מאמינים בעולם של ארבעה יסודות בלבד, כל עוד מערכת החינוך מצליחה להנחיל להם את הידע המפורט יותר על העולם. אבל כסופר בעצמי, דבר אחד כואב וחורה לי: על שכל אותם ממשילי משלים ומספרי סיפורים מגבילים את עצמם, וכתוצאה מגבילים גם את העולמות שהם משרטטים עבור הילדים.

העולם, בסופו של דבר מורכב מיותר מארבעה יסודות פשוטים ופשטניים. בעולם המדעי שלי קיימים גם המימן וההליום הקלים מהאוויר שאנו נושמים, ומאפשרים לספינות אוויר מכושפות לעוף למרחקים. בעולם שלי המכיל 118 יסודות, אפשר להרוג מפלצות באמצעות מילוי המאורה שלהן בגז חנקן בריכוז גבוה. בעולם שלי, שהוא העולם האמיתי, יש חומרים כמו אורניום ופלוטוניום שיטילו גם על האביר האמיץ ביותר קללה של מוות איטי ומייסר לאורך שנים ארוכות – אלא אם יתקרב אליהם כשהוא עטוי בשריון עופרת. העולם שלי ושלכם קסום ועשיר יותר מכל אגדה או פנטזיה.

ואם אתם רוצים להזמין את ילדיכם לעולם המופלא הזה, אתם יכולים להתחיל בטבלת היסודות.

 

4 Comments

Filed under ספקנות

האם רכבים ללא-נהג ישמשו לפשיעה?

בכל פעם שטכנולוגיה משנת-עולם מסתמנת כבעלת פוטנציאל להצליח, עולה קולם של רואי השחורות ונביאי הזעם. אלו מתנבאים כי לטכנולוגיה החדשה אין סיכוי להצליח, במקרה הטוב, או שהיא עתידה להקנות לבני-האדם יכולות מופלגות שלא נועדו להיות בידיהם. אם היינו מקשיבים להם, היינו יודעים ש- "יש בעולם שוק לחמישה מחשבים בלבד" (תומאס ווטסון, נשיא יבמ, 1943), ש- "הטלוויזיה לא תצליח להתמיד בשוק… אנשים יתעייפו בקרוב מבהייה בתיבת עץ כל לילה" (דאריל זאנוק, מנהל ב- 20th Century Fox, 1946) וש- "האינטרנט תתפוצץ כמו סופר-נובה ותתמוטט באופן קטסטרופלי ב- 1996" (רוברט מטקאלף, מייסד 3Com, 1995).

 

מי היה מאמין לפני שישים וחמש שנים, שאנשים יסכימו לבהות בתיבת עץ שעות ארוכות?

מי היה מאמין לפני שישים וחמש שנים, שאנשים יסכימו לבהות בתיבת עץ שעות ארוכות?

 

 

לכל אחד מהנביאים והחוזים הנ"ל היו סיבות טובות בזמנו להגיד את מה שאמרו. בימיו של ווטסון, המחשב עדיין לא היה מסוגל להריץ משחקים למשל, והיה מוגבל לחישובים ששירתו חברות ענק וממשלות בלבד. מי היה חולם שתוך חמישים שנים, גם אינדיבידואלים יהיו מעוניינים לבצע חישובים מסוג זה בבתיהם? אך העולם השתנה, וביחד עמו גם הדרישות והציפיות מהטכנולוגיה. בני-האדם התרגלו לבהות בתיבות עץ שסיפקו להם בידור זמין וזול ברמה שלא הייתה קיימת לפני כן, והטכנאים שמאחורי רשת האינטרנט הצליחו לסכל את הכשלים שבחומרה ובתוכנה כדי למנוע קריסה.

התחזיות הללו מלמדות אותנו בעיקר כמה קשה לחזות עתיד שמסתמך על טכנולוגיות משנות-עולם, שישנו את דרכי החשיבה והפעולה הנהוגות כיום. דו"ח חדש של ה- FBI מדגים עתה כיצד מנסה סוכנות החקירות האמריקנית להתמודד בצורה מרשימה עם האתגר. והתוצאה? אזהרות חמורות-סבר לפיהן המכוניות האוטונומיות (השולטות בעצמן) של גוגל עשויות לשמש כ- "כלי נשק קטלניים" – אבל גם מבט-על שסוקר את היתרונות של המכוניות ואת הדרכים בהן יוכלו לשנות את המשחק גם עבור רשויות אכיפת החוק.

הדו"ח נכתב על ידי מחלקת המודיעין של ה- FBI, מתוך כוונה להתכונן לכניסתן של המכוניות האוטונומיות לשוק. מדובר בדו"ח פנימי, אך מגזין 'הגרדיאן' הצליח לשים עליו את ידיו, ואנו נאלצים ללמוד אודות תוכן הדו"ח מתוך הציטטות הנבחרות שהמגזין פרסם ברשת. מתוכן ברור שהסוכנים שכתבו את הדו"ח מבינים את הטכנולוגיות בהן מדובר, ושמים עצמם בראשם של הפושעים בניסיון לפענח כיצד אלו ישתמשו בהן. התוצאה? רשימת פשעים שניתן יהיה לבצע עם הרכבים האוטונומיים בעתיד הלא-רחוק.

אז אם תמיד חיפשתם מה לעשות עם הרכב האוטונומי שלכם, הנה מספר הצעות מצד הסוכנות (הבלוג אינו לוקח אחריות על השימוש!) –

-          העמסת חומרי נפץ על הרכבים וכך ליצור פצצות ניידות הנשלטות מרחוק.

-          פריצת הרכבים כדי להורות להם להתעלם מתמרורי עצור, מרמזורים או ממגבלות מהירות בכבישים.

-          שימוש במכונית כרכב מילוט ללא נהג, תוך כדי יריות על השוטרים.

 

גם רכבים ללא-נהג יכולים לעשות תאונות דרכים. מקור - YouTwitFace.

גם רכבים ללא-נהג יכולים לעשות תאונות דרכים. מקור – YouTwitFace.

 

המטלה שניצבה בפני כותבי הדו"ח הייתה מאתגרת במיוחד, מאחר והיא מחייבת אותם לנסות לדמיין כיצד יראה העולם בעוד עשר שנים, כאשר הרכבים האוטונומיים ייכנסו לשוק הפרטי. כפי שהבנתם מהתחזיות הכושלות האחרות, כל תחזית שמנסה להתמודד עם טכנולוגיות משנות-עולם מבלי להבין כיצד ישנו את העולם שמסביבן, נידונה לכישלון. טכנולוגיות אלו ידועות גם בקרב הכלכלנים כ- General Purpose Technologies, והכלכלן וההיסטוריון גאווין ורייט הגדירן כ- "טכניקות או רעיונות חדשים מעמיקים, שהינם בעלי הפוטנציאל להשפעה חשובה על מגזרים רבים בכלכלה."[1] אלו כוללות את מנוע הקיטור ומנוע החשמל, את הרדיו והאינטרנט, וכנראה שגם את הרכבים האוטונומיים.

כל מי שמתמצא בסצנת הרכבים האוטונומיים ומודע ליכולות שאמורות להיות להם בעוד עשור, מבין שמערכת התנועה של העתיד לא תישאר כפי שהיא היום. קיימות הערכות לפיהן בערים הגדולות יתחלפו המכוניות האישיות במערכת של מוניות ללא-נהג, הנשלטות מרחוק על-ידי מחשב מרכזי. למעשה, יש השערה לפיה בערים עצמן תיאסר כניסה של מכוניות שאינן יכולות לעבור לשליטה אוטונומית, כדי למנוע פקקים או חניה לא מבוקרת. בכל אחד מהמצבים האלו מערכת התחבורה הכוללת משתנה. משמעות השינוי אינה 'רק' שהמכוניות האוטונומיות מתווספות לכבישים, אלא שהעולם כולו משתנה כדי להתאים את עצמו למכוניות האוטונומיות.

גם ה- FBI צופים שכוחות אכיפת החוק ישתנו ביחד עם העולם. הסוכנות חוזה שמספר תאונות הדרכים יפחת, ולכן גם יהיה פחות צורך בשירותי המשטרה. מצד שני, כאשר יזכו השוטרים במכוניות אוטונומיות משלהם, יוכלו אלו לבצע מרדפים חכמים במיוחד אחר פושעים. לפי הדו"ח, הרכבים האוטונומיים יוכלו לבצע בבטיחות פניות חדות ותמרונים מרשימים אחרים במהלך מרדפים או הגעה לאירוע חירום. כמובן, גם שוטרים אנושיים יכולים לבצע פעלולים מסוג זה, אך עקב היותם אנושיים הם צפויים לבצע יותר תאונות.

כותבי הדו"ח ממשיכים ומציינים את אחת הנקודות החשובות ביותר להבנת עולם העתיד:הפיקוח והניטור אחר מכוניות של פושעים יהיה קל יותר ויעיל יותר מאי פעם. המצלמות והמשדרים יהיו בכל מקום – אולי גם בתוך רכבים אזרחיים, כולל רכבי הפושעים – ומכוניות המשטרה האוטונומיות העתידיות יוכלו לשתף מידע ביניהן בזמן אמת כדי למצוא את הרכב המבוקש בפרק זמן קצר. מהרגע שאותר הרכב העברייני, לא ניתן יהיה לאבד אותו, הלכה למעשה. המכוניות יוכלו לנוע כדבורים בכוורת העיר, ואף לפנות בנתיבים שאינם אינטואיטיביים במבט ראשון, כדי לאגף את הרכב הנמלט ולעצור אותו בהמשך הדרך.

מתי כל הדברים הטובים האלו יתממשו? לפי תחזיות ה- FBI בדו"ח, הרכבים האוטונומיים יאושרו לנסיעה בכבישים תוך חמש עד שבע שנים מעכשיו. לתשתיות הסובבות את הרכבים ייקח זמן רב יותר להשתנות – אולי עשרות שנים – אך ברור שחלק מהתועלות של הרכבים האוטונומיים יתחילו להתממש כבר בעשור הקרוב.

זה עומד להיות עולם מרתק, עולם מפוקח, עולם בטוח יותר – ועולם שגופי אכיפת החוק צריכים להתכונן אליו, כדי להבין איך להתמודד עם עתיד בו עבודת השיטור על הכבישים משתנה מקצה לקצה.

בהצלחה למשטרת ישראל.

 

רגע לפני סיום: הידעתם? כבר ב- 1957 הייתה פרסומת ראשונה לרכבים ללא-נהג. הרעיון אולי היה טוב, אבל לטכנולוגיה לקח עוד יותר מחמישים שנים עד שהגענו לנקודת המימוש.

רגע לפני סיום: הידעתם? כבר ב- 1957 הייתה פרסומת ראשונה לרכבים ללא-נהג. הרעיון אולי היה טוב, אבל לטכנולוגיה לקח עוד יותר מחמישים שנים עד שהגענו לנקודת המימוש.

 

[1] כמצוטט בספרם המצוין של אריק ברינג'ולפסון ואנדרו מקאפי, The Second Machine Age.

4 Comments

Filed under Uncategorized