تراژدی هیزل» درباره بازی جنجالی یوونتوس و لیورپول در سال ۱۹۸۵
تراژدی هیزل» درباره بازی جنجالی یوونتوس و لیورپول در سال ۱۹۸۵
همه منتظر تماشای دیدار حساس دو تیم فوتبال یوونتوس و لیورپول در فینال جام قهرمانی اروپا در سال ۱۹۸۵ در استادیوم هیزل بروکسل بودند که یکی از تراژدی های عالم ورزش رقم خورد؛

 

همه منتظر تماشای دیدار حساس دو تیم فوتبال یوونتوس و لیورپول در فینال جام قهرمانی اروپا در سال ۱۹۸۵ در استادیوم هیزل بروکسل بودند که یکی از تراژدی های عالم ورزش رقم خورد؛ زمانی که بر اثر درگیری بین طرفداران دو تیم، دیواری فرو ریخت و سی و نه نفر جان خود را از دست دادند و شمار زخمی ها به ششصد نفر رسید.

این اتفاق حالا دستمایه یک مستند با نام «تراژدی هیزل» ساخته ژان فیلیپ لکلر و یان ورهین قرار گرفته که این اتفاق را از زوایای گوناگون به شکل مفصل بررسی می‌کنند؛ مستندی در شش قسمت که راهش را به جشنواره‌های سینمایی مختلف از جشنواره رم تا جشنواره دریای سرخ باز کرد.

ژان فیلیپ لکلر در گفت‌و‌گو با بی بی سی فارسی می‌گوید:« ما درباره یک روز پیش از مسابقه، طول مسابقه و روزهای بعد از آن حرف می زنیم و همین طور درباره زندگی آدم‌هایی که آنجا حضور داشتند اما نجات پیدا کردند و این که حالا سرنوشت آنها بعد از این اتفاق چگونه است.»این اتفاق چگونه است.»

لکلر پیشتر یک کتاب هم در این باره منتشر کرده بود:« من یک کتاب درباره تراژدی هیزل نوشته بودم که در سال ۲۰۰۵، یعنی در بیستمین سال این اتفاق منتشر شد. چیزی که در این کتاب و همین طور این مستند برای من جالب بود این نکته بود که درباره خود اتفاق و این که هر کس چه کاری کرده و مسئول این اتفاق کیست، زیاد حرف نزنم(هر چند اینها هم مورد بررسی قرار می‌گیرند)، اما چیز مهمتر و جذاب‌تر برای من گفتن داستان بود؛ داستان انسان‌هایی مثل من و شما که برای تماشای یک مسابقه فوتبال رفتند و هیچ وقت بازنگشتند یا اگر برگشتند، خیلی تغییر کردند، چرا که آن اتفاق خیلی وحشتناک بود. حالا این میان داستان‌های شخصی هم هست که هر کس می‌گوید چه کسی چه کاری کرده و چه مقدار مقصر است.»

لکلر درباره ایده شکل گیری این مستند و شش قسمتی شدن آن می‌گوید:« وقتی کتاب منتشر شد من به فکر این مستند افتادم و فکر کردم که نمی‌شود تمام داستان را در یک مستند نود دقیقه‌ای خلاصه کرد. می‌خواستم تمام داستان را از پیش از این اتفاق تا به امروز روایت کنم، برای همین طولانی شد. مثلاً یک اپیزود درباره محاکمه داریم که چند سال بعد در بروکسل اتفاق افتاد و خیلی جذاب بود. یا یک اپیزود داریم درباره امروز؛ درباره این که آدم‌ها بعد از اتفاقی که افتاد، به زندگی عادی خودشان برگشته‌اند یا نه. یک اپیزود داریم درباره پیش از این اتفاق، یکی درباره خود اتفاق، یکی درباره خود مسابقه، یکی دیگر درباره روزهای بعد از اتفاق، یکی درباره دادگاه و یکی هم درباره امروز. این گونه است که شد شش قسمت.»

تصویر، MO ABDI

طولانی بودن این مستند این امکان را به سازندگان داده تا از هر زاویه به آن نگاه کنند: «این نکته که در سال ۲۰۰۵ کتابی درباره این واقعه نوشته بودم خیلی کمک کرد. من شخصیت‌ها را می‌شناختم و داستان را هم می‌دانستم. هم در کتاب و هم در مستند، می‌خواستم داستان را از همه زوایا تعریف کنم. مستندهایی ساخته شده در این باره که هر کدام از یک زاویه به قضیه نگاه کرده‌اند. اما من می‌خواستم از همه زوایا باشد؛ هم از زاویه دید طرفداران انگلیس و هم زاویه دید قربانیان و هم زاویه دید بازیکنان. فکر می‌کنم گفتن داستان از یک زاویه لطف چندانی نداشت اما از همه زوایا، داستان خارق العاده‌ای خلق می‌کرد.»

مستند شامل گفت‌و‌گوهای بسیاری است که شامل همه نوع تماشاگر تا بازیکنان دو تیم می‌شود:« بیش از صد نفر را برای کتاب گفت‌و‌گو کردم و پنجاه و دو نفر را برای مستند. برای شش قسمت مستند به گفت‌و‌گوهای زیادی نیاز داشتیم. البته خیلی آسان نبود که آدم‌ها درباره این واقعه حرف بزنند، حتی حالا پس از سی و هفت سال، به ویژه بازیکنان که هنوز هم نمی‌خواهند در این باره حرف بزنند. تعداد خیلی کمی از آنها حاضر شدند مصاحبه کنند. از همه‌شان پرسیدیم و فقط چند تایی قبول کردند که حالا در فیلم هستند. چیزی که عجیب است این که حتی پس از سی و هفت سال، واقعه هیزل یک تابو است؛ هم در بریتانیا، هم بلژیک و هم ایتالیا، هر کدام به دلایلی متفاوت. بازیکنان مقداری شرمنده هستند که بخشی از این تراژدی بوده‌اند و هنوز بارش را بر دوش می‌کشند. برای مثال دو تا کتاب درباره میشل پلاتینی نوشته‌ام و از او خواستم که در این مستند در این باره حرف بزند، گفت: نه، نه، نه!»

لکلر می‌گوید از زمان نوشتن کتاب تا به امروز، اتفاقات مختلفی رخ داده است: «اتفاقی که در این هفده سال افتاد این بود که برخی از آدم‌هایی که با آنها در کتاب گفت‌و‌گو کرده بودم، متأسفانه دیگر زنده نبودند و برخی که در سال ۲۰۰۵ حاضر به گفت‌و‌گو نبودند، حالا حاضر شدند در این باره حرف بزنند. برای مثال یک قاضی زن داشتیم که در سال ۲۰۰۵ گفت نه اما این بار قبول کرد. یا جان ولش یکی از طرفداران لیورپول که در سال ۲۰۰۵ حاضر نشد اما در سال ۲۰۲۲ قبول کرد.»

لکلر اما می‌گوید تراژدی هیزل تنها متعلق به گذشته نیست:« چیزی که جالب است این که اتفاقی که در فینال جام قهرمانی اخیراً در پاریس اتفاق افتاد و این بار طرفداران لیورپول قربانی شدند، دقیقاً مشابه اتفاق هیزل است. اگر به رفتار پلیس و سیاستمداران فرانسه نگاه کنید می‌بینید که دقیقاً مثل همان قبلی است: انکار کردن و همان مشکلات برنامه ریزی. برخی می‌گویند هیزل دیگر گذشته، اما اگر خوب نگاه کنید می‌بینید که این طور نیست.»

در بحبوحه اعتصابات هالیوود، نتفلیکس آگهی استخدام برای متخصص هوش مصنوعی گذاشت

نتفلیکس

منبع تصویر، GETTY IMAGES

نتفلیکس که یک پلتفرم تولید سریال و فیلم و مستند برای نمایش خانگی است، پس از انتشار آگهی کار برای استخدام متخصص هوش مصنوعی با واکنش مملو از عصبانیت بازیگران و نویسندگان برجسته هالیوود روبرو شده است.

این آگهی کاری برای پیوستن به تیم یادگیری خودکار این شرکت است، که براساس یک الگوریتم به بینندگان کمک می‌کند برنامه‌های جدیدی را برای تماشا انتخاب کنند.

نتفلیکس گفته که دستمزد فرد استخدام شده تا ۹۰۰ هزار دلار در سال خواهد بود، که همین امر موجب خشم زیادی در صنعت سینما و تلویزیون شده است.

اتحادیه‌های هالیوود به دلیل نگرانی در مورد اینکه چگونه هوش مصنوعی بر صنعت سرگرمی و پرداخت دستمزدها تأثیر می‌گذارد در حال حاضر دست به اعتصاب زده‌اند.

چندین آگهی استخدام برای اولین بار روز سه‌شنبه منتشر شد که در بیشتر آنها نتفلیکس گفته به متخصصان در زمینه هوش مصنوعی در زمینه‌های مختلف نیاز دارد.

در آگهی منتشر شده چندان واضح نیست که آیا کسی که با این دستمزد بالا استخدام می‌شود قرار است در خصوص محتوا در فیلم‌ها و سریال‌های تولید شده نتفلیکس مشاوره بدهد یا خیر.

در یک آگهی دیگر گفته شده به یک مدیر در تیم یادگیری خودکار نیاز است و کارمند آینده بایستی «بازخورد‌ها را جمع آوری کرده و نیازهای کاربر را درک کند» و در نهایت به تصمیم گیری‌ها در سرمایه گذاری کمک کند.

صفحه ۲

پایان پادکست

با این حال به نظر می‌رسد براساس این توضیحات، این مشاغل برای استفاده از هوش مصنوعی در ارزیابی نیازهای مالی برای برنامه‌های مختلف مورد استفاده قرار بگیرد.

اما با همه اینها استفاده از هوش مصنوعی به یکی از نگرانی‌های اصلی اتحادیه بازیگران هالیوود تبدیل شده و آنها می‌گویند که به الگوریتم‌ها قدرت بیش از حد در این صنعت داده شده است.

فران درشر از اتحادیه بازیگران هالیوود به مجله تایم گفت که موفقیت منحصر به فرد هر فیلم یا برنامه تلویزیونی در حال حاضر بسیار کمتر از زمانی است که شبکه‌های تلویزیونی پخش کننده اصلی محتوا بودند.

به گفته او «اکنون الگوریتم‌ها دیکته می‌کنند که یک فصل از یک سریال باید چند قسمت باشد تا به تعداد مشترکین جدید برسید و از یک سریال چند فصل باید پخش شود.»

او گفت: «این باعث می‌شود تعداد قسمت‌ها در هر فصل به ۶ تا ۱۰ قسمت کاهش پیدا کند و تعداد فصل‌ها به سه یا چهار برسد و این زندگی شما را مختل می‌کند».

خانم درشر می‌گوید «ما به طور سیستماتیک توسط یک الگوریتم کسب و کار که بر ما تحمیل شده، در حال فشار برای معیشت‌مان هستیم و این مشکلات بی‌شماری را برای همه از بالا تا پایین ایجاد کرده است.»

انجمن نویسندگان هالیوود سیستمی را پیشنهاد کرده است که براساس آن استفاده از هوش مصنوعی در فرآیند نوشتن محدود شود و از استفاده از آن به عنوان منبع منبع جلوگیری می‌کند.

شرکت نتفلیکس تاکنون در خصوص لیست مشاغل خود اظهار نظری نکرده اما قبلا گفته بود که هوش مصنوعی جایگزین فرآیند خلاقیت نخواهد شد.

نتفلیکس می‌گوید: «بهترین داستان‌هایی که دارای اصالت و روشن‌بینی هستند اغلب از تجربیات خود افراد بیرون می‌آید».

چرا ایمن‌سازی هوش مصنوعی آنقدرها هم که فکر می‌کنید آسان نیست

مردی موبایلی در دست دارد و به آن نگاه می‌کند

منبع تصویر، GETTY IMAGES

  • نویسنده, زوئی کلاینمن و فیلیپا وین
  • شغل, بی‌بی‌سی

متخصصان هوش مصنوعی معمولاً یکی از دو مکتب فکری را دنبال می‌کنند – یا زندگی ما را بسیار بهبود می‌بخشد یا همه ما را نابود می‌کند. اما چگونه می‌توان هوش مصنوعی را ایمن کرد؟ در اینجا پنج مورد از چالش‌های پیش رو آورده شده است.

به توافق رسیدن درباره چیستی هوش مصنوعی

دو سال طول کشیده است تا پارلمان اروپا تعریفی از یک سیستم هوش مصنوعی ارائه دهد – نرم‌افزاری که می‌تواند «برای مجموعه معینی از اهداف تعریف شده توسط انسان، خروجی‌هایی مانند محتوا، پیش‌بینی‌ها، توصیه‌ها یا تصمیماتی ایجاد کند که بر محیط هایی که با آنها در تعامل هستند، تاثیر بگذارد.»

رسیدن به توافق جهانی

ثنا خرقانی، رئیس سابق دفتر هوش مصنوعی بریتانیا اشاره می‌کند که این فناوری هیچ احترامی برای مرزها قائل نیست.

او به بی‌بی‌سی می‌گوید: «ما باید در این زمینه همکاری بین‌المللی داشته باشیم – می‌دانم که سخت خواهد بود. این یک موضوع داخلی نیست. این فناوری‌ها در محدوده فقط یک کشور قرار نمی‌گیرند.»

اما هیچ برنامه‌ای برای تنظیم‌کننده جهانی هوش مصنوعی به سبک سازمان ملل وجود ندارد – اگرچه برخی آن را پیشنهاد کرده‌اند – و کشورهای مختلف ایده‌های متفاوتی دارند:

  • پیشنهادات اتحادیه اروپا سخت‌گیرانه‌ترین هستند و شامل درجه‌بندی محصولات هوش مصنوعی بسته به تأثیر آنها می‌شود – برای مثال، فیلتر هرزنامه ایمیل، مقررات سبک‌تری نسبت به ابزار تشخیص سرطان دارد
  • بریتانیا مقررات هوش مصنوعی را درون تنظیم‌کنندگان فعلی‌اش مندرج می‌کند – مثلاً آنها که می‌گویند فناوری علیه آنها تبعیض روا داشته است، به کمیسیون برابری مراجعه می‌کنند
  • ایالات متحده فقط دستورالعمل‌هایی داوطلبانه دارد که قانون‌گذاران در یک جلسه استماع تازه کمیته هوش مصنوعی اذعان کرده‌اند که نگران هستند که صلاحيت انجام چنین کاری را ندارند
  • چین قصد دارد شرکت‌ها را وادار کند هر زمان که از الگوریتم هوش مصنوعی استفاده می‌شود به کاربران اطلاع دهند

تامین اعتماد عمومی

ژان مارک لکلرک، رئیس امور نظارتی و دولت اتحادیه اروپا در شرکت (IBM) می‌گوید: «اگر مردم به آن اعتماد کنند، از آن استفاده خواهند کرد».

فرصت‌های بسیار زیادی برای هوش مصنوعی وجود دارد تا زندگی مردم را به روش‌هایی باورنکردنی بهبود بخشد.

صفحه ۲

پایان پادکست

هوش مصنوعی در حال حاضر قادر به انجام این کارهاست:

  • کمک به کشف آنتی‌بیوتیک‌ها
  • کمک به دوباره راه رفتن افراد فلج
  • پرداختن به مسائلی مانند تغییرات آب و هوا و بیماری‌های همه‌گیر

اما در مورد بررسی صلاحیت متقاضیان کار یا پیش‌بینی میزان احتمال ارتکاب جرم توسط یک فرد چه؟

پارلمان اروپا می‌خواهد که مردم در مورد خطرات مربوط به هر محصول هوش مصنوعی آگاه شوند.

شرکت‌هایی که قوانین آن را زیر پا بگذارند ممکن است به میزان بیش از ۳۰ میلیون یورو یا ۶ درصد از گردش مالی سالانه جهانی‌شان جریمه شوند.

اما آیا توسعه‌دهندگان می‌توانند نحوه استفاده از محصول‌شان را پیش‌بینی یا کنترل کنند؟

به گفته سام آلتمن، رئیس OpenAI خالق ChatGPT، شرکت‌های بزرگ می‌گویند که با مقررات دولتی – که برای کاهش خطرات احتمالی بسیار مهم است – موافق هستند.

ولی آیا در صورتی که خیلی درگیر نوشتن این مقررات شوند اولویت سود مالی‌شان از مردم بیشتر خواهد بود؟

می‌توانید شرط بندی کنید که آنها می‌خواهند تا حد امکان به قانونگذارانی که وظیفه تنظیم مقررات را دارند نزدیک باشند.

و بارونس لین فاکس، بنیان‌گذار Lastminute.com می‌گوید که مهم است تنها به شرکت‌ها گوش نکنیم.

او می‌گوید: «ما باید جامعه مدنی، دانشگاه‌ها، افرادی که تحت تأثیر این مدل‌ها و دگرگونی‌های مختلف هستند را در این امر دخالت دهیم.»

سام آلتمن، رئیس OpenAI خالق ChatGPT

منبع تصویر، REUTERS

واکنش سریع

مایکروسافت که میلیادرها دلار در چت‌جی‌پی‌تی سرمایه‌گذاری کرده است می‌خواهد «سخت‌کاری را از چرخه کار حذف کند.»

چت‌جی‌پی‌تی می‌تواند پاسخ‌های متنی و نثری شبیه انسان ایجاد کند، اما، آقای آلتمن تذکر می‌دهد که این، «یک ابزار است، نه یک موجود».

قرار است چت‌بات‌ها باعث بهره‌وری بیشتر کارکنان شوند.

و در برخی از صنایع، هوش مصنوعی این ظرفیت را دارد که شغل ایجاد کند و دستیار قدرتمندی باشد.

اما بقیه تا همین الآن هم کارکنان‌شان را از دست داده‌اند – ماه پیش، بی‌تی اعلام کرد که هوش مصنوعی جایگزین ۱۰ هزار شغل خواهد شد.

چت‌جی‌پی‌تی کمی بیش از شش ماه پیش مورد استفاده عمومی قرار گرفت.

اکنون می‌تواند مقاله بنویسد، برای تعطیلات مردم برنامه‌ریزی کند و در امتحانات حرفه‌ای قبول شود.

قابلیت این مدل‌های زبانی مقیاس بزرگ با سرعتی خارق العاده در حال رشد است.

و دو تن از سه «پدرخوانده» هوش مصنوعی – جفری هینتون و پروفسور یوشوا بنجیو – از جمله کسانی بودند که هشدار دادند این فناوری پتانسیل زیادی برای آسیب رسانی دارد.

مارگرت وستاگر، رئیس فناوری اتحادیه اروپا می‌گوید قانون هوش مصنوعی حداقل تا سال ۲۰۲۵ اجرایی نخواهد شد – که «بسیار دیر است».

و در کنار ایالات متحده در حال تدوین یک دستورالعمل داوطلبانه موقت برای این بخش است.

  • نویسنده : قیام خوراسانی
  • منبع خبر : BBC