
Épisode 111 - Les rêves éveillés de la Silicone Valley
カートのアイテムが多すぎます
ご購入は五十タイトルがカートに入っている場合のみです。
カートに追加できませんでした。
しばらく経ってから再度お試しください。
ウィッシュリストに追加できませんでした。
しばらく経ってから再度お試しください。
ほしい物リストの削除に失敗しました。
しばらく経ってから再度お試しください。
ポッドキャストのフォローに失敗しました
ポッドキャストのフォロー解除に失敗しました
-
ナレーター:
-
著者:
このコンテンツについて
Dans cet épisode : expériences de pensées et aventures réflexives hautement «trippatives» autour des enjeux philosophiques, éthiques et socioéconomiques de l’intelligence artificielle.
Au programme:
- Idéaux et imaginaires socio-techniques - Les rêves éveillés de Sam Altman et de la Silicone Valley.
- L’intégration de l’IA dans le monde académique et de la recherche en science: ChatGPT, le processus de révision par les pairs, et ses maladresses!
- L’ «homme diminué» et la décharge cognitive – Les origines et le futur de la lecture, de l’individualité, de l’empathie et la pensée réflexive à l'ère de l'IA.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs et collaboratrices (BaristIAs): Frédérick Plamondon et Sylvain Munger Ph.D.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc.
Textes et sources mentionnés:
- Cavalié, A. (2016). Maryanne Wolf, Proust et le calamar : Éd. Abeille et castor, 2015 [2007, trad. de l’anglais par Lisa Stupar], 412 p., 22€. Revue Projet, (5), 92-92.
- Karen Hao (2025). Empire of AI : Dreams and Nightmares in Sam Altman’s OpenAI, Penguin Press.
Livre audio disponible sur Spotify. - Podcast, This IS research, avec Nick Berente et Jan Recker. (« IS » pour Information Systems)
- Biswas, S., Dobaria, D., & Cohen, H. L. (2023). ChatGPT and the Future of Journal Reviews : A FeasibilityStudy. The Yale Journal of Biology and Medicine, 96(3), 415‑420. https://doi.org/10.59249/SKDH9286
- Ebadi, S., Nejadghanbar, H., Salman, A. R., & Khosravi, H. (2025). Exploring the Impact of Generative AI on Peer Review : Insights from Journal Reviewers. Journal of Academic Ethics. https://doi.org/10.1007/s10805-025-09604-4
- Hosseini, M., & Horbach, S. P. J. M. (2023). Fighting reviewer fatigue or amplifying bias? Considerations and recommendations for use of ChatGPT and other large language models in scholarly peer review. Research Integrity and Peer Review, 8(1), 4. https://doi.org/10.1186/s41073-023-00133-5
- Spinellis, D. (2025). False authorship : An explorative case study around an AI-generated article published under my name. Research Integrity and Peer Review, 10(1), 8. https://doi.org/10.1186/s41073-025-00165-z
Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Support the show