浏览代码

Article

master
David Larlet 1年前
父节点
当前提交
89f0b3d8ac

+ 2
- 2
david/2023/05/01/index.html 查看文件

@@ -81,7 +81,7 @@
Recherche</a
>
</nobr>
• <a rel="next" href="/david/2023/05/05/" title="Publication suivante : AÏe">Suivant →</a>
</p>
</nav>
<hr>
@@ -138,7 +138,7 @@
<p class="center">
<a rel="prev" href="/david/2023/03/13/" title="Publication précédente : Traditions">← Précédent</a> •
<a href="/david/2023/" title="Liste des publications récentes">↑ En 2023</a>
• <a rel="next" href="/david/2023/05/05/" title="Publication suivante : AÏe">Suivant →</a>
</p>
</nav>
</article>

+ 314
- 0
david/2023/05/05/index.html 查看文件

@@ -0,0 +1,314 @@
<!doctype html><!-- This is a valid HTML5 document. -->
<!-- Screen readers, SEO, extensions and so on. -->
<html lang="fr">
<!-- Has to be within the first 1024 bytes, hence before the `title` element
See: https://www.w3.org/TR/2012/CR-html5-20121217/document-metadata.html#charset -->
<meta charset="utf-8">
<!-- Why no `X-UA-Compatible` meta: https://stackoverflow.com/a/6771584 -->
<!-- The viewport meta is quite crowded and we are responsible for that.
See: https://codepen.io/tigt/post/meta-viewport-for-2015 -->
<meta name="viewport" content="width=device-width,initial-scale=1">
<!-- Required to make a valid HTML5 document. -->
<title>AÏe — David Larlet</title>
<meta name="description" content="Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: I’m worried about the impact of AI-enhanced developers like myself.">
<!-- That good ol' feed, subscribe :). -->
<link rel="alternate" type="application/atom+xml" title="Feed" href="/david/log/">
<!-- Generated from https://realfavicongenerator.net/ such a mess. -->
<link rel="apple-touch-icon" sizes="180x180" href="/static/david/icons2/apple-touch-icon.png">
<link rel="icon" type="image/png" sizes="32x32" href="/static/david/icons2/favicon-32x32.png">
<link rel="icon" type="image/png" sizes="16x16" href="/static/david/icons2/favicon-16x16.png">
<link rel="manifest" href="/static/david/icons2/site.webmanifest">
<link rel="mask-icon" href="/static/david/icons2/safari-pinned-tab.svg" color="#07486c">
<link rel="shortcut icon" href="/static/david/icons2/favicon.ico">
<meta name="msapplication-TileColor" content="#f7f7f7">
<meta name="msapplication-config" content="/static/david/icons2/browserconfig.xml">
<meta name="theme-color" content="#f7f7f7" media="(prefers-color-scheme: light)">
<meta name="theme-color" content="#272727" media="(prefers-color-scheme: dark)">
<!-- Documented, feel free to shoot an email. -->
<link rel="stylesheet" href="/static/david/css/style_2021-01-20.css">
<!-- See https://www.zachleat.com/web/comprehensive-webfonts/ for the trade-off. -->
<link rel="preload" href="/static/david/css/fonts/triplicate_t4_poly_regular.woff2" as="font" type="font/woff2" media="(prefers-color-scheme: light), (prefers-color-scheme: no-preference)" crossorigin>
<link rel="preload" href="/static/david/css/fonts/triplicate_t4_poly_bold.woff2" as="font" type="font/woff2" media="(prefers-color-scheme: light), (prefers-color-scheme: no-preference)" crossorigin>
<link rel="preload" href="/static/david/css/fonts/triplicate_t4_poly_italic.woff2" as="font" type="font/woff2" media="(prefers-color-scheme: light), (prefers-color-scheme: no-preference)" crossorigin>
<link rel="preload" href="/static/david/css/fonts/triplicate_t3_regular.woff2" as="font" type="font/woff2" media="(prefers-color-scheme: dark)" crossorigin>
<link rel="preload" href="/static/david/css/fonts/triplicate_t3_bold.woff2" as="font" type="font/woff2" media="(prefers-color-scheme: dark)" crossorigin>
<link rel="preload" href="/static/david/css/fonts/triplicate_t3_italic.woff2" as="font" type="font/woff2" media="(prefers-color-scheme: dark)" crossorigin>
<script>
function toggleTheme(themeName) {
document.documentElement.classList.toggle(
'forced-dark',
themeName === 'dark'
)
document.documentElement.classList.toggle(
'forced-light',
themeName === 'light'
)
}
const selectedTheme = localStorage.getItem('theme')
if (selectedTheme !== 'undefined') {
toggleTheme(selectedTheme)
}
</script>

<body class="remarkdown h1-underline h2-underline h3-underline em-underscore hr-center ul-star pre-tick" data-instant-intensity="viewport-all">


<article>
<header>
<h1>AÏe</h1>
</header>
<nav>
<p class="center">
<a rel="prev" href="/david/2023/05/01/" title="Publication précédente : Long&nbsp;cours">← Précédent</a> •
<nobr>
<a href="/david/" title="Aller à l’accueil" rel="up"
><svg class="icon icon-home">
<use
xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-home"
></use>
</svg>
Accueil</a
>
</nobr>
<nobr>
<a href="/david/recherche/" title="Aller à la page de recherche" rel="search"
><svg class="icon icon-search">
<use
xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-search"
></use>
</svg>
Recherche</a
>
</nobr>
</p>
</nav>
<hr>


<blockquote>
<p>Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: <mark>I’m worried about the impact of AI-enhanced developers like&nbsp;myself.</mark></p>
<p>It genuinely feels unethical for me <em>not</em> to help other people learn to use these tools as effectively as possible. I want everyone to be able to do what I can do with them, as safely and responsibly as&nbsp;possible.</p>
<p>I think the message we should be emphasizing is&nbsp;this:</p>
<p><strong>These are incredibly powerful tools. They are far harder to use effectively than they first appear. Invest the effort, but approach with caution: we accidentally invented computers that can lie to us and we can’t figure out how to make them&nbsp;stop.</strong></p>
<p><cite><em><a href="https://simonwillison.net/2023/Apr/7/chatgpt-lies/">We need to tell people ChatGPT will lie to them, not debate linguistics</a></em>&nbsp;(<a href="/david/cache/2023/452be27c5cc8a4b9824d1d7e005546c6/">cache</a>)</cite></p>
</blockquote>
<p><em>Je ne voulais pas trop réagir à chaud sur ce sujet. Aussi, je n’ai pas encore testé tout cela pour de vrai donc tout ce qui suit ne sont que les ruminations d’un vieux mi-Cassandre, mi-raison.</em></p>
<p>Quand je regarde les <a href="https://gist.github.com/simonw/66918b6cde1f87bf4fc883c67735195d">expériences</a> de Simon Willison, je compare de plus en plus ces aides pour dévelopeur·euses à un StackOverflow amélioré. Peut-être que ça ne fait qu’accroitre les inégalités entre les personnes expérimentées et celles qui ne le sont pas. À moins que ça ne puisse être qu’une réflexion de personne expérimentée. Difficile de me prononcer mais je doute que cet outil permette de réduire ce&nbsp;fossé.</p>
<p>Bien sûr, ça donne tout de suite envie de <a href="https://lethain.com/openai-exploration/">faire</a>&nbsp;(<a href="/david/cache/2023/4a485034e94dc6123a624e8a589e8dac/">cache</a>) des <a href="http://dataholic.ca/2023/04/05/gpt-assistant-vocal/">trucs</a>&nbsp;(<a href="/david/cache/2023/08f83e8893cad4d5a2eb6a560f73dd65/">cache</a>) plutôt <a href="https://www.lukew.com/ff/entry.asp?2008">fun</a>&nbsp;(<a href="/david/cache/2023/dc43f3c837d95313ac7317e10349511e/">cache</a>) avec. Pour ma part, ça me démotive de publier des choses qui vont venir alimenter la machine. Dans une telle proportion d’analyse, chaque réaction à un article ne fait qu’enrichir sa compréhension, chaque texte alternatif à une image ne fait qu’entraîner un générateur, chaque ligne de code sur une forge publique permet d’améliorer un algorithme potentiellement destructeur, chaque étiquette attribuée contribue à confirmer un biais. Les producteurs ont le pouvoir d’orienter un algorithme qui se nourrit de ces productions, d’une certaine manière les vainqueurs racontent déjà l’histoire qu’écrira la génération suivante. Tout change… sans vraiment&nbsp;changer.</p>
<p>Peut-être que, comme pour les échecs, cette aide contribuera à faire monter le niveau général et permettra de s’entraîner contre/avec la machine. Regardant beaucoup de parties commentées en direct, la jauge mise à jour en temps réel nous donne peut-être un aperçu des évaluations futures ou même des recrutements. J’imagine que ça pourrait devenir très pertinent pour générer des tests unitaires, voire de sécurité, sur un code&nbsp;produit.</p>
<p>En creux, il est un peu fou de constater que tout ce qui est publiquement et gratuitement accessible est en train d’être exploité pour le profit de quelques uns sans aucun respect des souhaits des auteur·ices sur ces contenus. Une forme de colonisation dont je prends conscience probablement car je suis —&nbsp;pour une fois&nbsp;— du mauvais côté de la frontière, aussi numérique&nbsp;soit-elle.</p>

<blockquote>
<p>👴 Based on our findings, if Copilot is used by expert developers in software projects, it can become an asset since its suggestions could be comparable to humans’ contributions in terms of quality. However, Copilot can become a liability <mark>if it is used by novice developers who may fail to filter</mark> its buggy or non-optimal solutions due to a lack of&nbsp;expertise.</p>
<p><cite><em><a href="https://www.sciencedirect.com/science/article/abs/pii/S0164121223001292">GitHub Copilot AI pair programmer: Asset or Liability?</a></em>&nbsp;(<a href="/david/cache/2023/6eef954bc8dd84322cf19ab38caf2ee3/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>✍️ Personal notes (for meetings, books, and coding) seems the most promising but I don’t think AI can do this for me either. When I take notes, I’m only interested in writing out the stuff that matters to me. Every book I read has a hundred summaries on the internet, each more detailed and comprehensive than mine, but I still take book notes because I want to remember what impacted me. Even if an AI knew what those things were, <mark>delegating that work would defeat the&nbsp;purpose.</mark></p>
<p><cite><em><a href="https://www.bryanbraun.com/2023/04/14/ais-can-write-for-us-but-will-we-want-them-to/">AIs can write for us but will we actually want them to?</a></em>&nbsp;(<a href="/david/cache/2023/89aa5bbfeaa7c8f2411980f99801359c/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>😔 It’s astonishing to me how little people have learned about trusting centralized entities with huge amounts of power in their lives. <mark>LLMs are a fundamentally centralized phenomenon</mark> — they take a huge amount of human and computer time to make, and are thus only accessible to enormous institutions. I don’t understand if people are simply blind to these power relations, or if they don’t&nbsp;care.</p>
<p><cite><em><a href="https://notebook.wesleyac.com/gpt-ugh/">Scattered ChatGPT thoughts</a></em>&nbsp;(<a href="/david/cache/2023/d1545c8cf9387ad9b0c98020c7ccfe61/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🤔 Where does this all land? I’m moderately optimistic about&nbsp;AI.</p>
<p>But I think the thing that excites a lot of people about it is the reorganization, the shift, the reward for opportunism. Navigating that change in market opportunity and being there is its own reward to a lot of people. And it should be: this is the essence of progress in an industrialized society. The relationships, the strategy, matters much more to many people than craft or art: what goes into the production of a thing is just a variable to be&nbsp;minimized.</p>
<p><mark>How people feel about AI has a lot to do with how they think society should be structured,</mark> what makes work valuable, and what they truly enjoy&nbsp;doing.</p>
<p><cite><em><a href="https://macwright.com/2023/04/15/ai.html">The one about AI</a></em>&nbsp;(<a href="/david/cache/2023/ccb1821caf1a27ed2a2e9a92a26d0b65/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>💦 Large Language Models are something lesser. <mark>They are water running down pathways etched into the ground over centuries by the rivers of human culture.</mark> Their originality comes entirely from random combinations of historical thought. They do not know the ‘meaning’ of anything—they only know the records humans find meaningful enough to store.[19] Their unreliability comes from their unpredictable behaviour in novel circumstances. When there is no riverbed to follow, they drown the surrounding&nbsp;landscape.</p>
<p><cite><em><a href="https://softwarecrisis.dev/letters/ai-bird-brains-silicon-valley/">Artificial General Intelligence and the bird brains of Silicon Valley</a></em>&nbsp;(<a href="/david/cache/2023/f23d043d8e99f2af5fcf1b970f98744a/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🧊 Depending on the energy source used for training and its carbon intensity, training a 2022-era <mark>LLM emits at least 25&nbsp;metric tons of carbon</mark> equivalents if you use renewable energy, as we did for the BLOOM model. If you use carbon-intensive energy sources like coal and natural gas, which was the case for GPT-3, this number quickly goes up to 500&nbsp;metric tons of carbon emissions, roughly equivalent to over a million miles driven by an average gasoline-powered&nbsp;car.</p>
<p>And this calculation doesn’t consider the manufacturing of the hardware used for training the models, nor the emissions incurred when LLMs are deployed in the real&nbsp;world.</p>
<p><cite><em><a href="https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/">The mounting human and environmental costs of generative AI</a></em>&nbsp;(<a href="/david/cache/2023/230f8f7224199132de4ce030458536de/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🪵 Enseignez le code sans&nbsp;ordinateur</p>
<p>CODE EN BOIS est un système innovant et écologique qui permet d’initier à la programmation en manipulant des briques d’instructions en bois. La seule question qu’on se pose, c’est «&nbsp;pourquoi ça n’existait pas&nbsp;avant&#8239;?&nbsp;»</p>
<p><cite><a href="https://codeenbois.fr/">CODE EN&nbsp;BOIS</a></cite></p>
</blockquote>

<blockquote>
<p>🌌 J’ai ressenti l’impulsion après qu’une amie a demandé à la cantonade “ma fille voudrait aller voir les aurores boréales, mais ma famille ne prend plus l’avion, vous pensez que c’est possible en train&#8239;?”. <mark>Ça doit être possible, je me suis dit, mais compliqué à organiser.</mark> Et puis j’ai regardé les cartes, les zones de visibilité des aurores, les meilleures périodes de l’année pour les voir, la météo scandinave, les prédictions d’activité solaire… en fait, c’est bien plus accessible que je ne le pensais. Et si j’y&nbsp;allais&#8239;?</p>
<p><cite><em><a href="https://blog.professeurjoachim.com/billet/2023-03-31-aller-voir-les-aurores-boreales-en-train">Aller voir les aurores boréales en train</a></em>&nbsp;(<a href="/david/cache/2023/096a44a83d8d3f2bdfd21e3d378e4719/">cache</a>)</cite></p>
</blockquote>


<nav>
<p>
<a href="/david/2023/complexite/"
title="Liste de tous les articles 2023 associés à cette étiquette"
rel="tag"
>#complexité</a>
<a href="/david/2023/sociologie/"
title="Liste de tous les articles 2023 associés à cette étiquette"
rel="tag"
>#sociologie</a>
<a href="/david/2023/technique/"
title="Liste de tous les articles 2023 associés à cette étiquette"
rel="tag"
>#technique</a>
<a href="/david/#tags-2023"
title="Liste de toutes les étiquettes 2023"
><svg class="icon icon-tags">
<use xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-tags"></use>
</svg>
tous ?</a
>
</p>
</nav>

<nav>
<p class="center">
<a rel="prev" href="/david/2023/05/01/" title="Publication précédente : Long&nbsp;cours">← Précédent</a> •
<a href="/david/2023/" title="Liste des publications récentes">↑ En 2023</a>
</p>
</nav>
</article>


<hr>

<footer>
<p>
<nobr>
<a href="/david/" title="Aller à l’accueil"
><svg class="icon icon-home">
<use
xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-home"
></use>
</svg>
Accueil</a
>
</nobr>
<nobr>
<a href="/david/log/" title="Accès au flux RSS"
><svg class="icon icon-rss2">
<use xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-rss2"></use>
</svg>
Suivre</a
>
</nobr>
<nobr>
<a href="http://larlet.com" title="Go to my English profile" data-instant
><svg class="icon icon-user-tie">
<use xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-user-tie"></use>
</svg>
Pro</a
>
</nobr>
<nobr>
<a href="mailto:david%40larlet.fr" title="Envoyer un courriel"
><svg class="icon icon-mail">
<use xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-mail"></use>
</svg>
Email</a
>
</nobr>
<nobr>
<abbr
class="nowrap"
title="Hébergeur : Alwaysdata, 62 rue Tiquetonne 75002 Paris, +33184162340"
><svg class="icon icon-hammer2">
<use xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-hammer2"></use>
</svg>
Légal</abbr
>
</nobr>
</p>
<template id="theme-selector">
<form>
<fieldset>
<legend><svg class="icon icon-brightness-contrast">
<use xlink:href="/static/david/icons2/symbol-defs-2022-03.svg#icon-brightness-contrast"></use>
</svg> Thème</legend>
<label>
<input type="radio" value="auto" name="chosen-color-scheme" checked> Auto
</label>
<label>
<input type="radio" value="dark" name="chosen-color-scheme"> Foncé
</label>
<label>
<input type="radio" value="light" name="chosen-color-scheme"> Clair
</label>
</fieldset>
</form>
</template>
</footer>
<script src="/static/david/js/instantpage-5.1.0.min.js" type="module"></script>
<script>
function loadThemeForm(templateName) {
const themeSelectorTemplate = document.querySelector(templateName)
const form = themeSelectorTemplate.content.firstElementChild
themeSelectorTemplate.replaceWith(form)

form.addEventListener('change', (e) => {
const chosenColorScheme = e.target.value
localStorage.setItem('theme', chosenColorScheme)
toggleTheme(chosenColorScheme)
})

const selectedTheme = localStorage.getItem('theme')
if (selectedTheme && selectedTheme !== 'undefined') {
form.querySelector(`[value="${selectedTheme}"]`).checked = true
}
}

const prefersColorSchemeDark = '(prefers-color-scheme: dark)'
window.addEventListener('load', () => {
let hasDarkRules = false
for (const styleSheet of Array.from(document.styleSheets)) {
let mediaRules = []
for (const cssRule of styleSheet.cssRules) {
if (cssRule.type !== CSSRule.MEDIA_RULE) {
continue
}
// WARNING: Safari does not have/supports `conditionText`.
if (cssRule.conditionText) {
if (cssRule.conditionText !== prefersColorSchemeDark) {
continue
}
} else {
if (cssRule.cssText.startsWith(prefersColorSchemeDark)) {
continue
}
}
mediaRules = mediaRules.concat(Array.from(cssRule.cssRules))
}

// WARNING: do not try to insert a Rule to a styleSheet you are
// currently iterating on, otherwise the browser will be stuck
// in a infinite loop…
for (const mediaRule of mediaRules) {
styleSheet.insertRule(mediaRule.cssText)
hasDarkRules = true
}
}
if (hasDarkRules) {
loadThemeForm('#theme-selector')
}
})
</script>

</body>
</html>

+ 67
- 0
david/2023/_sources/2023-05-05 - AÏe.md 查看文件

@@ -0,0 +1,67 @@
# AÏe

> Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: ==I’m worried about the impact of AI-enhanced developers like myself.==
>
> It genuinely feels unethical for me *not* to help other people learn to use these tools as effectively as possible. I want everyone to be able to do what I can do with them, as safely and responsibly as possible.
>
> I think the message we should be emphasizing is this:
>
> **These are incredibly powerful tools. They are far harder to use effectively than they first appear. Invest the effort, but approach with caution: we accidentally invented computers that can lie to us and we can’t figure out how to make them stop.**
>
> <cite>*[We need to tell people ChatGPT will lie to them, not debate linguistics](https://simonwillison.net/2023/Apr/7/chatgpt-lies/)* ([cache](/david/cache/2023/452be27c5cc8a4b9824d1d7e005546c6/))</cite>

_Je ne voulais pas trop réagir à chaud sur ce sujet. Aussi, je n’ai pas encore testé tout cela pour de vrai donc tout ce qui suit ne sont que les ruminations d’un vieux mi-Cassandre, mi-raison._

Quand je regarde les [expériences](https://gist.github.com/simonw/66918b6cde1f87bf4fc883c67735195d) de Simon Willison, je compare de plus en plus ces aides pour dévelopeur·euses à un StackOverflow amélioré. Peut-être que ça ne fait qu’accroitre les inégalités entre les personnes expérimentées et celles qui ne le sont pas. À moins que ça ne puisse être qu’une réflexion de personne expérimentée. Difficile de me prononcer mais je doute que cet outil permette de réduire ce fossé.

Bien sûr, ça donne tout de suite envie de [faire](https://lethain.com/openai-exploration/) ([cache](/david/cache/2023/4a485034e94dc6123a624e8a589e8dac/)) des [trucs](http://dataholic.ca/2023/04/05/gpt-assistant-vocal/) ([cache](/david/cache/2023/08f83e8893cad4d5a2eb6a560f73dd65/)) plutôt [fun](https://www.lukew.com/ff/entry.asp?2008) ([cache](/david/cache/2023/dc43f3c837d95313ac7317e10349511e/)) avec. Pour ma part, ça me démotive de publier des choses qui vont venir alimenter la machine. Dans une telle proportion d’analyse, chaque réaction à un article ne fait qu’enrichir sa compréhension, chaque texte alternatif à une image ne fait qu’entraîner un générateur, chaque ligne de code sur une forge publique permet d’améliorer un algorithme potentiellement destructeur, chaque étiquette attribuée contribue à confirmer un biais. Les producteurs ont le pouvoir d’orienter un algorithme qui se nourrit de ces productions, d’une certaine manière les vainqueurs racontent déjà l’histoire qu’écrira la génération suivante. Tout change… sans vraiment changer.

Peut-être que, comme pour les échecs, cette aide contribuera à faire monter le niveau général et permettra de s’entraîner contre/avec la machine. Regardant beaucoup de parties commentées en direct, la jauge mise à jour en temps réel nous donne peut-être un aperçu des évaluations futures ou même des recrutements. J’imagine que ça pourrait devenir très pertinent pour générer des tests unitaires, voire de sécurité, sur un code produit.

En creux, il est un peu fou de constater que tout ce qui est publiquement et gratuitement accessible est en train d’être exploité pour le profit de quelques uns sans aucun respect des souhaits des auteur·ices sur ces contenus. Une forme de colonisation dont je prends conscience probablement car je suis — pour une fois — du mauvais côté de la frontière, aussi numérique soit-elle.

> 👴 Based on our findings, if Copilot is used by expert developers in software projects, it can become an asset since its suggestions could be comparable to humans’ contributions in terms of quality. However, Copilot can become a liability ==if it is used by novice developers who may fail to filter== its buggy or non-optimal solutions due to a lack of expertise.
>
> <cite>*[GitHub Copilot AI pair programmer: Asset or Liability?](https://www.sciencedirect.com/science/article/abs/pii/S0164121223001292)* ([cache](/david/cache/2023/6eef954bc8dd84322cf19ab38caf2ee3/))</cite>


> ✍️ Personal notes (for meetings, books, and coding) seems the most promising but I don’t think AI can do this for me either. When I take notes, I’m only interested in writing out the stuff that matters to me. Every book I read has a hundred summaries on the internet, each more detailed and comprehensive than mine, but I still take book notes because I want to remember what impacted me. Even if an AI knew what those things were, ==delegating that work would defeat the purpose.==
>
> <cite>*[AIs can write for us but will we actually want them to?](https://www.bryanbraun.com/2023/04/14/ais-can-write-for-us-but-will-we-want-them-to/)* ([cache](/david/cache/2023/89aa5bbfeaa7c8f2411980f99801359c/))</cite>

> 😔 It’s astonishing to me how little people have learned about trusting centralized entities with huge amounts of power in their lives. ==LLMs are a fundamentally centralized phenomenon== — they take a huge amount of human and computer time to make, and are thus only accessible to enormous institutions. I don’t understand if people are simply blind to these power relations, or if they don’t care.
>
> <cite>*[Scattered ChatGPT thoughts](https://notebook.wesleyac.com/gpt-ugh/)* ([cache](/david/cache/2023/d1545c8cf9387ad9b0c98020c7ccfe61/))</cite>

> 🤔 Where does this all land? I’m moderately optimistic about AI.
>
> But I think the thing that excites a lot of people about it is the reorganization, the shift, the reward for opportunism. Navigating that change in market opportunity and being there is its own reward to a lot of people. And it should be: this is the essence of progress in an industrialized society. The relationships, the strategy, matters much more to many people than craft or art: what goes into the production of a thing is just a variable to be minimized.
>
> ==How people feel about AI has a lot to do with how they think society should be structured,== what makes work valuable, and what they truly enjoy doing.
>
> <cite>*[The one about AI](https://macwright.com/2023/04/15/ai.html)* ([cache](/david/cache/2023/ccb1821caf1a27ed2a2e9a92a26d0b65/))</cite>


> 💦 Large Language Models are something lesser. ==They are water running down pathways etched into the ground over centuries by the rivers of human culture.== Their originality comes entirely from random combinations of historical thought. They do not know the ‘meaning’ of anything—they only know the records humans find meaningful enough to store.[19] Their unreliability comes from their unpredictable behaviour in novel circumstances. When there is no riverbed to follow, they drown the surrounding landscape.
>
> <cite>*[Artificial General Intelligence and the bird brains of Silicon Valley](https://softwarecrisis.dev/letters/ai-bird-brains-silicon-valley/)* ([cache](/david/cache/2023/f23d043d8e99f2af5fcf1b970f98744a/))</cite>

> 🧊 Depending on the energy source used for training and its carbon intensity, training a 2022-era ==LLM emits at least 25 metric tons of carbon== equivalents if you use renewable energy, as we did for the BLOOM model. If you use carbon-intensive energy sources like coal and natural gas, which was the case for GPT-3, this number quickly goes up to 500 metric tons of carbon emissions, roughly equivalent to over a million miles driven by an average gasoline-powered car.
>
> And this calculation doesn’t consider the manufacturing of the hardware used for training the models, nor the emissions incurred when LLMs are deployed in the real world.
>
> <cite>*[The mounting human and environmental costs of generative AI](https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/)* ([cache](/david/cache/2023/230f8f7224199132de4ce030458536de/))</cite>


> 🪵 Enseignez le code sans ordinateur
>
> CODE EN BOIS est un système innovant et écologique qui permet d’initier à la programmation en manipulant des briques d’instructions en bois. La seule question qu’on se pose, c’est « pourquoi ça n’existait pas avant ? »
>
> <cite>[CODE EN BOIS](https://codeenbois.fr/)</cite>


> 🌌 J’ai ressenti l’impulsion après qu’une amie a demandé à la cantonade “ma fille voudrait aller voir les aurores boréales, mais ma famille ne prend plus l’avion, vous pensez que c’est possible en train ?”. ==Ça doit être possible, je me suis dit, mais compliqué à organiser.== Et puis j’ai regardé les cartes, les zones de visibilité des aurores, les meilleures périodes de l’année pour les voir, la météo scandinave, les prédictions d’activité solaire… en fait, c’est bien plus accessible que je ne le pensais. Et si j’y allais ?
>
> <cite>*[Aller voir les aurores boréales en train](https://blog.professeurjoachim.com/billet/2023-03-31-aller-voir-les-aurores-boreales-en-train)* ([cache](/david/cache/2023/096a44a83d8d3f2bdfd21e3d378e4719/))</cite>

#complexité #sociologie #technique

+ 68
- 1
david/2023/complexite/index.html 查看文件

@@ -76,6 +76,70 @@
<main>
<p>Les plus récentes en premier, les 3 premières sont dépliées et ensuite c’est à la demande, bonne exploration !</p>
<h2><a href="/david/2023/05/05/" title="Lien permanent vers cet article">AÏe</a> (2023-05-05)</h2>

<blockquote>
<p>Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: <mark>I’m worried about the impact of AI-enhanced developers like&nbsp;myself.</mark></p>
<p>It genuinely feels unethical for me <em>not</em> to help other people learn to use these tools as effectively as possible. I want everyone to be able to do what I can do with them, as safely and responsibly as&nbsp;possible.</p>
<p>I think the message we should be emphasizing is&nbsp;this:</p>
<p><strong>These are incredibly powerful tools. They are far harder to use effectively than they first appear. Invest the effort, but approach with caution: we accidentally invented computers that can lie to us and we can’t figure out how to make them&nbsp;stop.</strong></p>
<p><cite><em><a href="https://simonwillison.net/2023/Apr/7/chatgpt-lies/">We need to tell people ChatGPT will lie to them, not debate linguistics</a></em>&nbsp;(<a href="/david/cache/2023/452be27c5cc8a4b9824d1d7e005546c6/">cache</a>)</cite></p>
</blockquote>
<p><em>Je ne voulais pas trop réagir à chaud sur ce sujet. Aussi, je n’ai pas encore testé tout cela pour de vrai donc tout ce qui suit ne sont que les ruminations d’un vieux mi-Cassandre, mi-raison.</em></p>
<p>Quand je regarde les <a href="https://gist.github.com/simonw/66918b6cde1f87bf4fc883c67735195d">expériences</a> de Simon Willison, je compare de plus en plus ces aides pour dévelopeur·euses à un StackOverflow amélioré. Peut-être que ça ne fait qu’accroitre les inégalités entre les personnes expérimentées et celles qui ne le sont pas. À moins que ça ne puisse être qu’une réflexion de personne expérimentée. Difficile de me prononcer mais je doute que cet outil permette de réduire ce&nbsp;fossé.</p>
<p>Bien sûr, ça donne tout de suite envie de <a href="https://lethain.com/openai-exploration/">faire</a>&nbsp;(<a href="/david/cache/2023/4a485034e94dc6123a624e8a589e8dac/">cache</a>) des <a href="http://dataholic.ca/2023/04/05/gpt-assistant-vocal/">trucs</a>&nbsp;(<a href="/david/cache/2023/08f83e8893cad4d5a2eb6a560f73dd65/">cache</a>) plutôt <a href="https://www.lukew.com/ff/entry.asp?2008">fun</a>&nbsp;(<a href="/david/cache/2023/dc43f3c837d95313ac7317e10349511e/">cache</a>) avec. Pour ma part, ça me démotive de publier des choses qui vont venir alimenter la machine. Dans une telle proportion d’analyse, chaque réaction à un article ne fait qu’enrichir sa compréhension, chaque texte alternatif à une image ne fait qu’entraîner un générateur, chaque ligne de code sur une forge publique permet d’améliorer un algorithme potentiellement destructeur, chaque étiquette attribuée contribue à confirmer un biais. Les producteurs ont le pouvoir d’orienter un algorithme qui se nourrit de ces productions, d’une certaine manière les vainqueurs racontent déjà l’histoire qu’écrira la génération suivante. Tout change… sans vraiment&nbsp;changer.</p>
<p>Peut-être que, comme pour les échecs, cette aide contribuera à faire monter le niveau général et permettra de s’entraîner contre/avec la machine. Regardant beaucoup de parties commentées en direct, la jauge mise à jour en temps réel nous donne peut-être un aperçu des évaluations futures ou même des recrutements. J’imagine que ça pourrait devenir très pertinent pour générer des tests unitaires, voire de sécurité, sur un code&nbsp;produit.</p>
<p>En creux, il est un peu fou de constater que tout ce qui est publiquement et gratuitement accessible est en train d’être exploité pour le profit de quelques uns sans aucun respect des souhaits des auteur·ices sur ces contenus. Une forme de colonisation dont je prends conscience probablement car je suis —&nbsp;pour une fois&nbsp;— du mauvais côté de la frontière, aussi numérique&nbsp;soit-elle.</p>

<blockquote>
<p>👴 Based on our findings, if Copilot is used by expert developers in software projects, it can become an asset since its suggestions could be comparable to humans’ contributions in terms of quality. However, Copilot can become a liability <mark>if it is used by novice developers who may fail to filter</mark> its buggy or non-optimal solutions due to a lack of&nbsp;expertise.</p>
<p><cite><em><a href="https://www.sciencedirect.com/science/article/abs/pii/S0164121223001292">GitHub Copilot AI pair programmer: Asset or Liability?</a></em>&nbsp;(<a href="/david/cache/2023/6eef954bc8dd84322cf19ab38caf2ee3/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>✍️ Personal notes (for meetings, books, and coding) seems the most promising but I don’t think AI can do this for me either. When I take notes, I’m only interested in writing out the stuff that matters to me. Every book I read has a hundred summaries on the internet, each more detailed and comprehensive than mine, but I still take book notes because I want to remember what impacted me. Even if an AI knew what those things were, <mark>delegating that work would defeat the&nbsp;purpose.</mark></p>
<p><cite><em><a href="https://www.bryanbraun.com/2023/04/14/ais-can-write-for-us-but-will-we-want-them-to/">AIs can write for us but will we actually want them to?</a></em>&nbsp;(<a href="/david/cache/2023/89aa5bbfeaa7c8f2411980f99801359c/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>😔 It’s astonishing to me how little people have learned about trusting centralized entities with huge amounts of power in their lives. <mark>LLMs are a fundamentally centralized phenomenon</mark> — they take a huge amount of human and computer time to make, and are thus only accessible to enormous institutions. I don’t understand if people are simply blind to these power relations, or if they don’t&nbsp;care.</p>
<p><cite><em><a href="https://notebook.wesleyac.com/gpt-ugh/">Scattered ChatGPT thoughts</a></em>&nbsp;(<a href="/david/cache/2023/d1545c8cf9387ad9b0c98020c7ccfe61/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🤔 Where does this all land? I’m moderately optimistic about&nbsp;AI.</p>
<p>But I think the thing that excites a lot of people about it is the reorganization, the shift, the reward for opportunism. Navigating that change in market opportunity and being there is its own reward to a lot of people. And it should be: this is the essence of progress in an industrialized society. The relationships, the strategy, matters much more to many people than craft or art: what goes into the production of a thing is just a variable to be&nbsp;minimized.</p>
<p><mark>How people feel about AI has a lot to do with how they think society should be structured,</mark> what makes work valuable, and what they truly enjoy&nbsp;doing.</p>
<p><cite><em><a href="https://macwright.com/2023/04/15/ai.html">The one about AI</a></em>&nbsp;(<a href="/david/cache/2023/ccb1821caf1a27ed2a2e9a92a26d0b65/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>💦 Large Language Models are something lesser. <mark>They are water running down pathways etched into the ground over centuries by the rivers of human culture.</mark> Their originality comes entirely from random combinations of historical thought. They do not know the ‘meaning’ of anything—they only know the records humans find meaningful enough to store.[19] Their unreliability comes from their unpredictable behaviour in novel circumstances. When there is no riverbed to follow, they drown the surrounding&nbsp;landscape.</p>
<p><cite><em><a href="https://softwarecrisis.dev/letters/ai-bird-brains-silicon-valley/">Artificial General Intelligence and the bird brains of Silicon Valley</a></em>&nbsp;(<a href="/david/cache/2023/f23d043d8e99f2af5fcf1b970f98744a/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🧊 Depending on the energy source used for training and its carbon intensity, training a 2022-era <mark>LLM emits at least 25&nbsp;metric tons of carbon</mark> equivalents if you use renewable energy, as we did for the BLOOM model. If you use carbon-intensive energy sources like coal and natural gas, which was the case for GPT-3, this number quickly goes up to 500&nbsp;metric tons of carbon emissions, roughly equivalent to over a million miles driven by an average gasoline-powered&nbsp;car.</p>
<p>And this calculation doesn’t consider the manufacturing of the hardware used for training the models, nor the emissions incurred when LLMs are deployed in the real&nbsp;world.</p>
<p><cite><em><a href="https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/">The mounting human and environmental costs of generative AI</a></em>&nbsp;(<a href="/david/cache/2023/230f8f7224199132de4ce030458536de/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🪵 Enseignez le code sans&nbsp;ordinateur</p>
<p>CODE EN BOIS est un système innovant et écologique qui permet d’initier à la programmation en manipulant des briques d’instructions en bois. La seule question qu’on se pose, c’est «&nbsp;pourquoi ça n’existait pas&nbsp;avant&#8239;?&nbsp;»</p>
<p><cite><a href="https://codeenbois.fr/">CODE EN&nbsp;BOIS</a></cite></p>
</blockquote>

<blockquote>
<p>🌌 J’ai ressenti l’impulsion après qu’une amie a demandé à la cantonade “ma fille voudrait aller voir les aurores boréales, mais ma famille ne prend plus l’avion, vous pensez que c’est possible en train&#8239;?”. <mark>Ça doit être possible, je me suis dit, mais compliqué à organiser.</mark> Et puis j’ai regardé les cartes, les zones de visibilité des aurores, les meilleures périodes de l’année pour les voir, la météo scandinave, les prédictions d’activité solaire… en fait, c’est bien plus accessible que je ne le pensais. Et si j’y&nbsp;allais&#8239;?</p>
<p><cite><em><a href="https://blog.professeurjoachim.com/billet/2023-03-31-aller-voir-les-aurores-boreales-en-train">Aller voir les aurores boréales en train</a></em>&nbsp;(<a href="/david/cache/2023/096a44a83d8d3f2bdfd21e3d378e4719/">cache</a>)</cite></p>
</blockquote>


<h2><a href="/david/2023/02/08/" title="Lien permanent vers cet article">TextcAIst</a> (2023-02-08)</h2>
@@ -137,7 +201,9 @@
<h2><a href="/david/2023/01/16/" title="Lien permanent vers cet article">Chasse</a> (2023-01-16)</h2>
<details>
<summary>Déplier pour lire le contenu de la publication</summary>
<p>Je me demande toujours quel est l’impact carbone de la chasse en terme de consommation de viande. Ou plutôt quels seraient les effets de bord d’une interdiction de la&nbsp;chasse.</p>
<p>Si toute la viande chassée ne l’était pas, est-ce que ça se transformerait en achat de steaks de bœuf&#8239;? Est-ce que cela signifierait encore davantage de cultures sacrifiées pour élever des animaux et les manger&#8239;? Plus de pauvreté ou malnutrition dans les populations&nbsp;rurales&#8239;?</p>
<p>Et que feraient ces personnes pendant ces moments là&#8239;? Est-ce que le temps libéré produirait encore davantage de dépenses d’énergies&#8239;? Encore plus de déplacements en voiture et de consommation&#8239;? Et que deviendraient toutes ces armes, au service de qui pourraient-elles être&nbsp;réutilisées&#8239;?</p>
@@ -153,6 +219,7 @@
<p><cite><em><a href="https://www.2000watts.org/index.php/home/reflexion/1317-les-droles-nouvelles-de-l-energie.html">Les Drôles Nouvelles de l’Energie</a></em>&nbsp;(<a href="/david/cache/2023/d6877059a2203cab6c811c5ee3148c17/">cache</a>)</cite></p>
</blockquote>

</details>


+ 5
- 4
david/2023/index.html 查看文件

@@ -145,7 +145,8 @@
<h3>Mai 2023</h3>
<p>
<a href="/david/2023/05/01/">Long&nbsp;cours</a>.
<a href="/david/2023/05/01/">Long&nbsp;cours</a>,
<a href="/david/2023/05/05/">AÏe</a>.
</p>
@@ -160,7 +161,7 @@
<a href="/david/2021/amadou/" rel="tag">#amadou (1)</a>
<a href="/david/2021/attention/" rel="tag">#attention (2)</a>
<a href="/david/2021/aventure/" rel="tag">#aventure (12)</a>
<a href="/david/2021/complexite/" rel="tag">#complexité (4)</a>
<a href="/david/2021/complexite/" rel="tag">#complexité (5)</a>
<a href="/david/2021/confiance/" rel="tag">#confiance (5)</a>
<a href="/david/2021/confidentialite/" rel="tag">#confidentialité (3)</a>
<a href="/david/2021/courage/" rel="tag">#courage (7)</a>
@@ -188,10 +189,10 @@
<a href="/david/2021/recyclage/" rel="tag">#recyclage (2)</a>
<a href="/david/2021/reponse/" rel="tag">#réponse (2)</a>
<a href="/david/2021/simplicite/" rel="tag">#simplicité (2)</a>
<a href="/david/2021/sociologie/" rel="tag">#sociologie (4)</a>
<a href="/david/2021/sociologie/" rel="tag">#sociologie (5)</a>
<a href="/david/2021/solastalgia/" rel="tag">#solastalgia (1)</a>
<a href="/david/2021/sport/" rel="tag">#sport (3)</a>
<a href="/david/2021/technique/" rel="tag">#technique (7)</a>
<a href="/david/2021/technique/" rel="tag">#technique (8)</a>
<a href="/david/2021/traces/" rel="tag">#traces (5)</a>
<a href="/david/2021/tristesse/" rel="tag">#tristesse (2)</a>
<a href="/david/2021/viande/" rel="tag">#viande (1)</a>

+ 68
- 1
david/2023/sociologie/index.html 查看文件

@@ -76,6 +76,70 @@
<main>
<p>Les plus récentes en premier, les 3 premières sont dépliées et ensuite c’est à la demande, bonne exploration !</p>
<h2><a href="/david/2023/05/05/" title="Lien permanent vers cet article">AÏe</a> (2023-05-05)</h2>

<blockquote>
<p>Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: <mark>I’m worried about the impact of AI-enhanced developers like&nbsp;myself.</mark></p>
<p>It genuinely feels unethical for me <em>not</em> to help other people learn to use these tools as effectively as possible. I want everyone to be able to do what I can do with them, as safely and responsibly as&nbsp;possible.</p>
<p>I think the message we should be emphasizing is&nbsp;this:</p>
<p><strong>These are incredibly powerful tools. They are far harder to use effectively than they first appear. Invest the effort, but approach with caution: we accidentally invented computers that can lie to us and we can’t figure out how to make them&nbsp;stop.</strong></p>
<p><cite><em><a href="https://simonwillison.net/2023/Apr/7/chatgpt-lies/">We need to tell people ChatGPT will lie to them, not debate linguistics</a></em>&nbsp;(<a href="/david/cache/2023/452be27c5cc8a4b9824d1d7e005546c6/">cache</a>)</cite></p>
</blockquote>
<p><em>Je ne voulais pas trop réagir à chaud sur ce sujet. Aussi, je n’ai pas encore testé tout cela pour de vrai donc tout ce qui suit ne sont que les ruminations d’un vieux mi-Cassandre, mi-raison.</em></p>
<p>Quand je regarde les <a href="https://gist.github.com/simonw/66918b6cde1f87bf4fc883c67735195d">expériences</a> de Simon Willison, je compare de plus en plus ces aides pour dévelopeur·euses à un StackOverflow amélioré. Peut-être que ça ne fait qu’accroitre les inégalités entre les personnes expérimentées et celles qui ne le sont pas. À moins que ça ne puisse être qu’une réflexion de personne expérimentée. Difficile de me prononcer mais je doute que cet outil permette de réduire ce&nbsp;fossé.</p>
<p>Bien sûr, ça donne tout de suite envie de <a href="https://lethain.com/openai-exploration/">faire</a>&nbsp;(<a href="/david/cache/2023/4a485034e94dc6123a624e8a589e8dac/">cache</a>) des <a href="http://dataholic.ca/2023/04/05/gpt-assistant-vocal/">trucs</a>&nbsp;(<a href="/david/cache/2023/08f83e8893cad4d5a2eb6a560f73dd65/">cache</a>) plutôt <a href="https://www.lukew.com/ff/entry.asp?2008">fun</a>&nbsp;(<a href="/david/cache/2023/dc43f3c837d95313ac7317e10349511e/">cache</a>) avec. Pour ma part, ça me démotive de publier des choses qui vont venir alimenter la machine. Dans une telle proportion d’analyse, chaque réaction à un article ne fait qu’enrichir sa compréhension, chaque texte alternatif à une image ne fait qu’entraîner un générateur, chaque ligne de code sur une forge publique permet d’améliorer un algorithme potentiellement destructeur, chaque étiquette attribuée contribue à confirmer un biais. Les producteurs ont le pouvoir d’orienter un algorithme qui se nourrit de ces productions, d’une certaine manière les vainqueurs racontent déjà l’histoire qu’écrira la génération suivante. Tout change… sans vraiment&nbsp;changer.</p>
<p>Peut-être que, comme pour les échecs, cette aide contribuera à faire monter le niveau général et permettra de s’entraîner contre/avec la machine. Regardant beaucoup de parties commentées en direct, la jauge mise à jour en temps réel nous donne peut-être un aperçu des évaluations futures ou même des recrutements. J’imagine que ça pourrait devenir très pertinent pour générer des tests unitaires, voire de sécurité, sur un code&nbsp;produit.</p>
<p>En creux, il est un peu fou de constater que tout ce qui est publiquement et gratuitement accessible est en train d’être exploité pour le profit de quelques uns sans aucun respect des souhaits des auteur·ices sur ces contenus. Une forme de colonisation dont je prends conscience probablement car je suis —&nbsp;pour une fois&nbsp;— du mauvais côté de la frontière, aussi numérique&nbsp;soit-elle.</p>

<blockquote>
<p>👴 Based on our findings, if Copilot is used by expert developers in software projects, it can become an asset since its suggestions could be comparable to humans’ contributions in terms of quality. However, Copilot can become a liability <mark>if it is used by novice developers who may fail to filter</mark> its buggy or non-optimal solutions due to a lack of&nbsp;expertise.</p>
<p><cite><em><a href="https://www.sciencedirect.com/science/article/abs/pii/S0164121223001292">GitHub Copilot AI pair programmer: Asset or Liability?</a></em>&nbsp;(<a href="/david/cache/2023/6eef954bc8dd84322cf19ab38caf2ee3/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>✍️ Personal notes (for meetings, books, and coding) seems the most promising but I don’t think AI can do this for me either. When I take notes, I’m only interested in writing out the stuff that matters to me. Every book I read has a hundred summaries on the internet, each more detailed and comprehensive than mine, but I still take book notes because I want to remember what impacted me. Even if an AI knew what those things were, <mark>delegating that work would defeat the&nbsp;purpose.</mark></p>
<p><cite><em><a href="https://www.bryanbraun.com/2023/04/14/ais-can-write-for-us-but-will-we-want-them-to/">AIs can write for us but will we actually want them to?</a></em>&nbsp;(<a href="/david/cache/2023/89aa5bbfeaa7c8f2411980f99801359c/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>😔 It’s astonishing to me how little people have learned about trusting centralized entities with huge amounts of power in their lives. <mark>LLMs are a fundamentally centralized phenomenon</mark> — they take a huge amount of human and computer time to make, and are thus only accessible to enormous institutions. I don’t understand if people are simply blind to these power relations, or if they don’t&nbsp;care.</p>
<p><cite><em><a href="https://notebook.wesleyac.com/gpt-ugh/">Scattered ChatGPT thoughts</a></em>&nbsp;(<a href="/david/cache/2023/d1545c8cf9387ad9b0c98020c7ccfe61/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🤔 Where does this all land? I’m moderately optimistic about&nbsp;AI.</p>
<p>But I think the thing that excites a lot of people about it is the reorganization, the shift, the reward for opportunism. Navigating that change in market opportunity and being there is its own reward to a lot of people. And it should be: this is the essence of progress in an industrialized society. The relationships, the strategy, matters much more to many people than craft or art: what goes into the production of a thing is just a variable to be&nbsp;minimized.</p>
<p><mark>How people feel about AI has a lot to do with how they think society should be structured,</mark> what makes work valuable, and what they truly enjoy&nbsp;doing.</p>
<p><cite><em><a href="https://macwright.com/2023/04/15/ai.html">The one about AI</a></em>&nbsp;(<a href="/david/cache/2023/ccb1821caf1a27ed2a2e9a92a26d0b65/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>💦 Large Language Models are something lesser. <mark>They are water running down pathways etched into the ground over centuries by the rivers of human culture.</mark> Their originality comes entirely from random combinations of historical thought. They do not know the ‘meaning’ of anything—they only know the records humans find meaningful enough to store.[19] Their unreliability comes from their unpredictable behaviour in novel circumstances. When there is no riverbed to follow, they drown the surrounding&nbsp;landscape.</p>
<p><cite><em><a href="https://softwarecrisis.dev/letters/ai-bird-brains-silicon-valley/">Artificial General Intelligence and the bird brains of Silicon Valley</a></em>&nbsp;(<a href="/david/cache/2023/f23d043d8e99f2af5fcf1b970f98744a/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🧊 Depending on the energy source used for training and its carbon intensity, training a 2022-era <mark>LLM emits at least 25&nbsp;metric tons of carbon</mark> equivalents if you use renewable energy, as we did for the BLOOM model. If you use carbon-intensive energy sources like coal and natural gas, which was the case for GPT-3, this number quickly goes up to 500&nbsp;metric tons of carbon emissions, roughly equivalent to over a million miles driven by an average gasoline-powered&nbsp;car.</p>
<p>And this calculation doesn’t consider the manufacturing of the hardware used for training the models, nor the emissions incurred when LLMs are deployed in the real&nbsp;world.</p>
<p><cite><em><a href="https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/">The mounting human and environmental costs of generative AI</a></em>&nbsp;(<a href="/david/cache/2023/230f8f7224199132de4ce030458536de/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🪵 Enseignez le code sans&nbsp;ordinateur</p>
<p>CODE EN BOIS est un système innovant et écologique qui permet d’initier à la programmation en manipulant des briques d’instructions en bois. La seule question qu’on se pose, c’est «&nbsp;pourquoi ça n’existait pas&nbsp;avant&#8239;?&nbsp;»</p>
<p><cite><a href="https://codeenbois.fr/">CODE EN&nbsp;BOIS</a></cite></p>
</blockquote>

<blockquote>
<p>🌌 J’ai ressenti l’impulsion après qu’une amie a demandé à la cantonade “ma fille voudrait aller voir les aurores boréales, mais ma famille ne prend plus l’avion, vous pensez que c’est possible en train&#8239;?”. <mark>Ça doit être possible, je me suis dit, mais compliqué à organiser.</mark> Et puis j’ai regardé les cartes, les zones de visibilité des aurores, les meilleures périodes de l’année pour les voir, la météo scandinave, les prédictions d’activité solaire… en fait, c’est bien plus accessible que je ne le pensais. Et si j’y&nbsp;allais&#8239;?</p>
<p><cite><em><a href="https://blog.professeurjoachim.com/billet/2023-03-31-aller-voir-les-aurores-boreales-en-train">Aller voir les aurores boréales en train</a></em>&nbsp;(<a href="/david/cache/2023/096a44a83d8d3f2bdfd21e3d378e4719/">cache</a>)</cite></p>
</blockquote>


<h2><a href="/david/2023/02/12/" title="Lien permanent vers cet article">Jour&nbsp;3</a> (2023-02-12)</h2>
@@ -248,7 +312,9 @@
<h2><a href="/david/2023/02/10/" title="Lien permanent vers cet article">Jour&nbsp;1</a> (2023-02-10)</h2>
<details>
<summary>Déplier pour lire le contenu de la publication</summary>

<blockquote>
<p>Ma propre inadaptation physiologique au froid a aussi son origine dans la sélection naturelle. Je ne suis pas à ma place dans ce mandala glacial car mes ancêtres ont échappé à la sélection naturelle par la résistance au froid. L’homme descend de grands singes ayant vécu pendant des dizaines de millions d’années en Afrique tropicale. Conserver sa fraîcheur était bien plus nécessaire et ardu que de conserver sa chaleur, et nous avons donc peu de défenses corporelles contre le froid. Lorsque nos ancêtres ont quitté l’Afrique pour gagner l’Europe du Nord, ils ont emporté avec eux du feu et des vêtements, transportant ainsi les tropiques dans les régions tempérées et polaires. Cette ingéniosité leur a épargné bien des souffrances et des pertes, résultats incontestablement bénéfiques. Mais le confort est une dérobade face à la sélection naturelle. Notre aptitude à faire du feu et à nous vêtir nous condamne définitivement à ne pas être à notre place dans le monde&nbsp;hivernal.</p>
@@ -274,6 +340,7 @@
<p>La réunion d’accueil à 19&#8239;h se fait sous une neige bien dense autour du foyer, c’est très jovial. Je suis content d’avoir finalement opté pour le tipi qui est efficace pour ne pas accumuler trop de poids avec la neige et qui reste ventilé pour ne pas garder la condensation et finir&nbsp;trempé.</p>
<p>Les organisateurs nous annoncent des conditions très clémentes, presque trop mais la glace est solide grâce au vortex polaire de la semaine passée. Départ prévu à 7&#8239;h&nbsp;30&nbsp;demain matin, il faut que le traîneau soit près à embarquer à ce moment là. Je mets le réveil à 6&#8239;h&nbsp;30&nbsp;et je ne fais pas long feu car je me suis encore bien diminué. Je m’endors grâce au bruit (littéralement&#8239;!) blanc de la neige qui crépite sur la toile. Les réveils nocturnes permettent de faire tomber la neige des parois, la gorge gratte. J’utilise pour la première fois mon duvet -30&#8239;°C et je crève de chaud, j’apprends à utiliser ses ouvertures latérales. Je l’ai acheté en panique il y a deux semaine, après la réunion d’information qui nous racontait une nuit à -38&#8239;°C il y a&nbsp;3&nbsp;ans…</p>

</details>


+ 68
- 1
david/2023/technique/index.html 查看文件

@@ -76,6 +76,70 @@
<main>
<p>Les plus récentes en premier, les 3 premières sont dépliées et ensuite c’est à la demande, bonne exploration !</p>
<h2><a href="/david/2023/05/05/" title="Lien permanent vers cet article">AÏe</a> (2023-05-05)</h2>

<blockquote>
<p>Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: <mark>I’m worried about the impact of AI-enhanced developers like&nbsp;myself.</mark></p>
<p>It genuinely feels unethical for me <em>not</em> to help other people learn to use these tools as effectively as possible. I want everyone to be able to do what I can do with them, as safely and responsibly as&nbsp;possible.</p>
<p>I think the message we should be emphasizing is&nbsp;this:</p>
<p><strong>These are incredibly powerful tools. They are far harder to use effectively than they first appear. Invest the effort, but approach with caution: we accidentally invented computers that can lie to us and we can’t figure out how to make them&nbsp;stop.</strong></p>
<p><cite><em><a href="https://simonwillison.net/2023/Apr/7/chatgpt-lies/">We need to tell people ChatGPT will lie to them, not debate linguistics</a></em>&nbsp;(<a href="/david/cache/2023/452be27c5cc8a4b9824d1d7e005546c6/">cache</a>)</cite></p>
</blockquote>
<p><em>Je ne voulais pas trop réagir à chaud sur ce sujet. Aussi, je n’ai pas encore testé tout cela pour de vrai donc tout ce qui suit ne sont que les ruminations d’un vieux mi-Cassandre, mi-raison.</em></p>
<p>Quand je regarde les <a href="https://gist.github.com/simonw/66918b6cde1f87bf4fc883c67735195d">expériences</a> de Simon Willison, je compare de plus en plus ces aides pour dévelopeur·euses à un StackOverflow amélioré. Peut-être que ça ne fait qu’accroitre les inégalités entre les personnes expérimentées et celles qui ne le sont pas. À moins que ça ne puisse être qu’une réflexion de personne expérimentée. Difficile de me prononcer mais je doute que cet outil permette de réduire ce&nbsp;fossé.</p>
<p>Bien sûr, ça donne tout de suite envie de <a href="https://lethain.com/openai-exploration/">faire</a>&nbsp;(<a href="/david/cache/2023/4a485034e94dc6123a624e8a589e8dac/">cache</a>) des <a href="http://dataholic.ca/2023/04/05/gpt-assistant-vocal/">trucs</a>&nbsp;(<a href="/david/cache/2023/08f83e8893cad4d5a2eb6a560f73dd65/">cache</a>) plutôt <a href="https://www.lukew.com/ff/entry.asp?2008">fun</a>&nbsp;(<a href="/david/cache/2023/dc43f3c837d95313ac7317e10349511e/">cache</a>) avec. Pour ma part, ça me démotive de publier des choses qui vont venir alimenter la machine. Dans une telle proportion d’analyse, chaque réaction à un article ne fait qu’enrichir sa compréhension, chaque texte alternatif à une image ne fait qu’entraîner un générateur, chaque ligne de code sur une forge publique permet d’améliorer un algorithme potentiellement destructeur, chaque étiquette attribuée contribue à confirmer un biais. Les producteurs ont le pouvoir d’orienter un algorithme qui se nourrit de ces productions, d’une certaine manière les vainqueurs racontent déjà l’histoire qu’écrira la génération suivante. Tout change… sans vraiment&nbsp;changer.</p>
<p>Peut-être que, comme pour les échecs, cette aide contribuera à faire monter le niveau général et permettra de s’entraîner contre/avec la machine. Regardant beaucoup de parties commentées en direct, la jauge mise à jour en temps réel nous donne peut-être un aperçu des évaluations futures ou même des recrutements. J’imagine que ça pourrait devenir très pertinent pour générer des tests unitaires, voire de sécurité, sur un code&nbsp;produit.</p>
<p>En creux, il est un peu fou de constater que tout ce qui est publiquement et gratuitement accessible est en train d’être exploité pour le profit de quelques uns sans aucun respect des souhaits des auteur·ices sur ces contenus. Une forme de colonisation dont je prends conscience probablement car je suis —&nbsp;pour une fois&nbsp;— du mauvais côté de la frontière, aussi numérique&nbsp;soit-elle.</p>

<blockquote>
<p>👴 Based on our findings, if Copilot is used by expert developers in software projects, it can become an asset since its suggestions could be comparable to humans’ contributions in terms of quality. However, Copilot can become a liability <mark>if it is used by novice developers who may fail to filter</mark> its buggy or non-optimal solutions due to a lack of&nbsp;expertise.</p>
<p><cite><em><a href="https://www.sciencedirect.com/science/article/abs/pii/S0164121223001292">GitHub Copilot AI pair programmer: Asset or Liability?</a></em>&nbsp;(<a href="/david/cache/2023/6eef954bc8dd84322cf19ab38caf2ee3/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>✍️ Personal notes (for meetings, books, and coding) seems the most promising but I don’t think AI can do this for me either. When I take notes, I’m only interested in writing out the stuff that matters to me. Every book I read has a hundred summaries on the internet, each more detailed and comprehensive than mine, but I still take book notes because I want to remember what impacted me. Even if an AI knew what those things were, <mark>delegating that work would defeat the&nbsp;purpose.</mark></p>
<p><cite><em><a href="https://www.bryanbraun.com/2023/04/14/ais-can-write-for-us-but-will-we-want-them-to/">AIs can write for us but will we actually want them to?</a></em>&nbsp;(<a href="/david/cache/2023/89aa5bbfeaa7c8f2411980f99801359c/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>😔 It’s astonishing to me how little people have learned about trusting centralized entities with huge amounts of power in their lives. <mark>LLMs are a fundamentally centralized phenomenon</mark> — they take a huge amount of human and computer time to make, and are thus only accessible to enormous institutions. I don’t understand if people are simply blind to these power relations, or if they don’t&nbsp;care.</p>
<p><cite><em><a href="https://notebook.wesleyac.com/gpt-ugh/">Scattered ChatGPT thoughts</a></em>&nbsp;(<a href="/david/cache/2023/d1545c8cf9387ad9b0c98020c7ccfe61/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🤔 Where does this all land? I’m moderately optimistic about&nbsp;AI.</p>
<p>But I think the thing that excites a lot of people about it is the reorganization, the shift, the reward for opportunism. Navigating that change in market opportunity and being there is its own reward to a lot of people. And it should be: this is the essence of progress in an industrialized society. The relationships, the strategy, matters much more to many people than craft or art: what goes into the production of a thing is just a variable to be&nbsp;minimized.</p>
<p><mark>How people feel about AI has a lot to do with how they think society should be structured,</mark> what makes work valuable, and what they truly enjoy&nbsp;doing.</p>
<p><cite><em><a href="https://macwright.com/2023/04/15/ai.html">The one about AI</a></em>&nbsp;(<a href="/david/cache/2023/ccb1821caf1a27ed2a2e9a92a26d0b65/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>💦 Large Language Models are something lesser. <mark>They are water running down pathways etched into the ground over centuries by the rivers of human culture.</mark> Their originality comes entirely from random combinations of historical thought. They do not know the ‘meaning’ of anything—they only know the records humans find meaningful enough to store.[19] Their unreliability comes from their unpredictable behaviour in novel circumstances. When there is no riverbed to follow, they drown the surrounding&nbsp;landscape.</p>
<p><cite><em><a href="https://softwarecrisis.dev/letters/ai-bird-brains-silicon-valley/">Artificial General Intelligence and the bird brains of Silicon Valley</a></em>&nbsp;(<a href="/david/cache/2023/f23d043d8e99f2af5fcf1b970f98744a/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🧊 Depending on the energy source used for training and its carbon intensity, training a 2022-era <mark>LLM emits at least 25&nbsp;metric tons of carbon</mark> equivalents if you use renewable energy, as we did for the BLOOM model. If you use carbon-intensive energy sources like coal and natural gas, which was the case for GPT-3, this number quickly goes up to 500&nbsp;metric tons of carbon emissions, roughly equivalent to over a million miles driven by an average gasoline-powered&nbsp;car.</p>
<p>And this calculation doesn’t consider the manufacturing of the hardware used for training the models, nor the emissions incurred when LLMs are deployed in the real&nbsp;world.</p>
<p><cite><em><a href="https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/">The mounting human and environmental costs of generative AI</a></em>&nbsp;(<a href="/david/cache/2023/230f8f7224199132de4ce030458536de/">cache</a>)</cite></p>
</blockquote>

<blockquote>
<p>🪵 Enseignez le code sans&nbsp;ordinateur</p>
<p>CODE EN BOIS est un système innovant et écologique qui permet d’initier à la programmation en manipulant des briques d’instructions en bois. La seule question qu’on se pose, c’est «&nbsp;pourquoi ça n’existait pas&nbsp;avant&#8239;?&nbsp;»</p>
<p><cite><a href="https://codeenbois.fr/">CODE EN&nbsp;BOIS</a></cite></p>
</blockquote>

<blockquote>
<p>🌌 J’ai ressenti l’impulsion après qu’une amie a demandé à la cantonade “ma fille voudrait aller voir les aurores boréales, mais ma famille ne prend plus l’avion, vous pensez que c’est possible en train&#8239;?”. <mark>Ça doit être possible, je me suis dit, mais compliqué à organiser.</mark> Et puis j’ai regardé les cartes, les zones de visibilité des aurores, les meilleures périodes de l’année pour les voir, la météo scandinave, les prédictions d’activité solaire… en fait, c’est bien plus accessible que je ne le pensais. Et si j’y&nbsp;allais&#8239;?</p>
<p><cite><em><a href="https://blog.professeurjoachim.com/billet/2023-03-31-aller-voir-les-aurores-boreales-en-train">Aller voir les aurores boréales en train</a></em>&nbsp;(<a href="/david/cache/2023/096a44a83d8d3f2bdfd21e3d378e4719/">cache</a>)</cite></p>
</blockquote>


<h2><a href="/david/2023/02/13/" title="Lien permanent vers cet article">Livre</a> (2023-02-13)</h2>
@@ -120,7 +184,9 @@
<h2><a href="/david/2023/01/24/" title="Lien permanent vers cet article">Capot</a> (2023-01-24)</h2>
<details>
<summary>Déplier pour lire le contenu de la publication</summary>

<blockquote>
<p>En tant que premier projet public depuis mon arrivée chez Gandi, je suis content d’avoir pu tester tant de nouvelles chose—nouvelles pour moi, nouvelles pour l’équipe… <mark>la possibilité d’apprendre des nouveaux concepts et des nouvelles pratiques,</mark> c’est l’une des principales raisons pour laquelle je pratique ce métier. L’autre raison c’est que ça me permet de réaliser des choses pratiques et utiles dans le respect des personnes qui les&nbsp;utiliseront.</p>
@@ -131,6 +197,7 @@
<p>Peut-être que ce serait aussi l’occasion de publier davantage d’outils et de pratiques que nous avons et qui ne sont pas documentées et/ou pas&nbsp;publiques.</p>
<p>Tellement de choses peuvent se passer en&nbsp;2&nbsp;ans…</p>

</details>


+ 4
- 3
david/index.html 查看文件

@@ -76,6 +76,7 @@

<nav>
<p>
<a href="/david/2023/05/05/">AÏe</a>,
<a href="/david/2023/05/01/">Long&nbsp;cours</a>,
<a href="/david/2023/03/13/">Traditions</a>,
<a href="/david/2023/03/04/">Jour&nbsp;3</a>,
@@ -133,7 +134,7 @@
<a href="/david/2023/amadou/" rel="tag">#amadou (1)</a>,
<a href="/david/2023/attention/" rel="tag">#attention (2)</a>,
<a href="/david/2023/aventure/" rel="tag">#aventure (12)</a>,
<a href="/david/2023/complexite/" rel="tag">#complexité (4)</a>,
<a href="/david/2023/complexite/" rel="tag">#complexité (5)</a>,
<a href="/david/2023/confiance/" rel="tag">#confiance (5)</a>,
<a href="/david/2023/confidentialite/" rel="tag">#confidentialité (3)</a>,
<a href="/david/2023/courage/" rel="tag">#courage (7)</a>,
@@ -161,10 +162,10 @@
<a href="/david/2023/recyclage/" rel="tag">#recyclage (2)</a>,
<a href="/david/2023/reponse/" rel="tag">#réponse (2)</a>,
<a href="/david/2023/simplicite/" rel="tag">#simplicité (2)</a>,
<a href="/david/2023/sociologie/" rel="tag">#sociologie (4)</a>,
<a href="/david/2023/sociologie/" rel="tag">#sociologie (5)</a>,
<a href="/david/2023/solastalgia/" rel="tag">#solastalgia (1)</a>,
<a href="/david/2023/sport/" rel="tag">#sport (3)</a>,
<a href="/david/2023/technique/" rel="tag">#technique (7)</a>,
<a href="/david/2023/technique/" rel="tag">#technique (8)</a>,
<a href="/david/2023/traces/" rel="tag">#traces (5)</a>,
<a href="/david/2023/tristesse/" rel="tag">#tristesse (2)</a>,
<a href="/david/2023/viande/" rel="tag">#viande (1)</a>,

+ 67
- 24
david/log/index.xml 查看文件

@@ -6,13 +6,79 @@
<link href="https://larlet.fr/david/" rel="alternate" type="text/html" />
<link href="https://larlet.fr/david/log/" rel="self" />
<id>https://larlet.fr/david/</id>
<updated>2023-05-01T12:00:00+01:00</updated>
<updated>2023-05-05T12:00:00+01:00</updated>
<author>
<name>David Larlet</name>
<uri>https://larlet.fr/david/</uri>
</author>
<rights>Copyright (c) 2004-2023, David Larlet</rights>
<entry xml:lang="fr">
<title type="html">AÏe</title>
<link href="https://larlet.fr/david/2023/05/05/" rel="alternate" type="text/html" />
<updated>2023-05-05T12:00:00+01:00</updated>
<id>https://larlet.fr/david/2023/05/05/</id>
<summary type="html">

&lt;blockquote&gt;
&lt;p&gt;Honestly, at this point using ChatGPT in the way that I do feels like a massively unfair competitive advantage. I’m not worried about AI taking people’s jobs: &lt;mark&gt;I’m worried about the impact of AI-enhanced developers like&amp;nbsp;myself.&lt;/mark&gt;&lt;/p&gt;
&lt;p&gt;It genuinely feels unethical for me &lt;em&gt;not&lt;/em&gt; to help other people learn to use these tools as effectively as possible. I want everyone to be able to do what I can do with them, as safely and responsibly as&amp;nbsp;possible.&lt;/p&gt;
&lt;p&gt;I think the message we should be emphasizing is&amp;nbsp;this:&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;These are incredibly powerful tools. They are far harder to use effectively than they first appear. Invest the effort, but approach with caution: we accidentally invented computers that can lie to us and we can’t figure out how to make them&amp;nbsp;stop.&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://simonwillison.net/2023/Apr/7/chatgpt-lies/&quot;&gt;We need to tell people ChatGPT will lie to them, not debate linguistics&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/452be27c5cc8a4b9824d1d7e005546c6/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;em&gt;Je ne voulais pas trop réagir à chaud sur ce sujet. Aussi, je n’ai pas encore testé tout cela pour de vrai donc tout ce qui suit ne sont que les ruminations d’un vieux mi-Cassandre, mi-raison.&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Quand je regarde les &lt;a href=&quot;https://gist.github.com/simonw/66918b6cde1f87bf4fc883c67735195d&quot;&gt;expériences&lt;/a&gt; de Simon Willison, je compare de plus en plus ces aides pour dévelopeur·euses à un StackOverflow amélioré. Peut-être que ça ne fait qu’accroitre les inégalités entre les personnes expérimentées et celles qui ne le sont pas. À moins que ça ne puisse être qu’une réflexion de personne expérimentée. Difficile de me prononcer mais je doute que cet outil permette de réduire ce&amp;nbsp;fossé.&lt;/p&gt;
&lt;p&gt;Bien sûr, ça donne tout de suite envie de &lt;a href=&quot;https://lethain.com/openai-exploration/&quot;&gt;faire&lt;/a&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/4a485034e94dc6123a624e8a589e8dac/&quot;&gt;cache&lt;/a&gt;) des &lt;a href=&quot;http://dataholic.ca/2023/04/05/gpt-assistant-vocal/&quot;&gt;trucs&lt;/a&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/08f83e8893cad4d5a2eb6a560f73dd65/&quot;&gt;cache&lt;/a&gt;) plutôt &lt;a href=&quot;https://www.lukew.com/ff/entry.asp?2008&quot;&gt;fun&lt;/a&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/dc43f3c837d95313ac7317e10349511e/&quot;&gt;cache&lt;/a&gt;) avec. Pour ma part, ça me démotive de publier des choses qui vont venir alimenter la machine. Dans une telle proportion d’analyse, chaque réaction à un article ne fait qu’enrichir sa compréhension, chaque texte alternatif à une image ne fait qu’entraîner un générateur, chaque ligne de code sur une forge publique permet d’améliorer un algorithme potentiellement destructeur, chaque étiquette attribuée contribue à confirmer un biais. Les producteurs ont le pouvoir d’orienter un algorithme qui se nourrit de ces productions, d’une certaine manière les vainqueurs racontent déjà l’histoire qu’écrira la génération suivante. Tout change… sans vraiment&amp;nbsp;changer.&lt;/p&gt;
&lt;p&gt;Peut-être que, comme pour les échecs, cette aide contribuera à faire monter le niveau général et permettra de s’entraîner contre/avec la machine. Regardant beaucoup de parties commentées en direct, la jauge mise à jour en temps réel nous donne peut-être un aperçu des évaluations futures ou même des recrutements. J’imagine que ça pourrait devenir très pertinent pour générer des tests unitaires, voire de sécurité, sur un code&amp;nbsp;produit.&lt;/p&gt;
&lt;p&gt;En creux, il est un peu fou de constater que tout ce qui est publiquement et gratuitement accessible est en train d’être exploité pour le profit de quelques uns sans aucun respect des souhaits des auteur·ices sur ces contenus. Une forme de colonisation dont je prends conscience probablement car je suis —&amp;nbsp;pour une fois&amp;nbsp;— du mauvais côté de la frontière, aussi numérique&amp;nbsp;soit-elle.&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;👴 Based on our findings, if Copilot is used by expert developers in software projects, it can become an asset since its suggestions could be comparable to humans’ contributions in terms of quality. However, Copilot can become a liability &lt;mark&gt;if it is used by novice developers who may fail to filter&lt;/mark&gt; its buggy or non-optimal solutions due to a lack of&amp;nbsp;expertise.&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://www.sciencedirect.com/science/article/abs/pii/S0164121223001292&quot;&gt;GitHub Copilot AI pair programmer: Asset or Liability?&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/6eef954bc8dd84322cf19ab38caf2ee3/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;✍️ Personal notes (for meetings, books, and coding) seems the most promising but I don’t think AI can do this for me either. When I take notes, I’m only interested in writing out the stuff that matters to me. Every book I read has a hundred summaries on the internet, each more detailed and comprehensive than mine, but I still take book notes because I want to remember what impacted me. Even if an AI knew what those things were, &lt;mark&gt;delegating that work would defeat the&amp;nbsp;purpose.&lt;/mark&gt;&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://www.bryanbraun.com/2023/04/14/ais-can-write-for-us-but-will-we-want-them-to/&quot;&gt;AIs can write for us but will we actually want them to?&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/89aa5bbfeaa7c8f2411980f99801359c/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;😔 It’s astonishing to me how little people have learned about trusting centralized entities with huge amounts of power in their lives. &lt;mark&gt;LLMs are a fundamentally centralized phenomenon&lt;/mark&gt; — they take a huge amount of human and computer time to make, and are thus only accessible to enormous institutions. I don’t understand if people are simply blind to these power relations, or if they don’t&amp;nbsp;care.&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://notebook.wesleyac.com/gpt-ugh/&quot;&gt;Scattered ChatGPT thoughts&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/d1545c8cf9387ad9b0c98020c7ccfe61/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;🤔 Where does this all land? I’m moderately optimistic about&amp;nbsp;AI.&lt;/p&gt;
&lt;p&gt;But I think the thing that excites a lot of people about it is the reorganization, the shift, the reward for opportunism. Navigating that change in market opportunity and being there is its own reward to a lot of people. And it should be: this is the essence of progress in an industrialized society. The relationships, the strategy, matters much more to many people than craft or art: what goes into the production of a thing is just a variable to be&amp;nbsp;minimized.&lt;/p&gt;
&lt;p&gt;&lt;mark&gt;How people feel about AI has a lot to do with how they think society should be structured,&lt;/mark&gt; what makes work valuable, and what they truly enjoy&amp;nbsp;doing.&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://macwright.com/2023/04/15/ai.html&quot;&gt;The one about AI&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/ccb1821caf1a27ed2a2e9a92a26d0b65/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;💦 Large Language Models are something lesser. &lt;mark&gt;They are water running down pathways etched into the ground over centuries by the rivers of human culture.&lt;/mark&gt; Their originality comes entirely from random combinations of historical thought. They do not know the ‘meaning’ of anything—they only know the records humans find meaningful enough to store.[19] Their unreliability comes from their unpredictable behaviour in novel circumstances. When there is no riverbed to follow, they drown the surrounding&amp;nbsp;landscape.&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://softwarecrisis.dev/letters/ai-bird-brains-silicon-valley/&quot;&gt;Artificial General Intelligence and the bird brains of Silicon Valley&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/f23d043d8e99f2af5fcf1b970f98744a/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;🧊 Depending on the energy source used for training and its carbon intensity, training a 2022-era &lt;mark&gt;LLM emits at least 25&amp;nbsp;metric tons of carbon&lt;/mark&gt; equivalents if you use renewable energy, as we did for the BLOOM model. If you use carbon-intensive energy sources like coal and natural gas, which was the case for GPT-3, this number quickly goes up to 500&amp;nbsp;metric tons of carbon emissions, roughly equivalent to over a million miles driven by an average gasoline-powered&amp;nbsp;car.&lt;/p&gt;
&lt;p&gt;And this calculation doesn’t consider the manufacturing of the hardware used for training the models, nor the emissions incurred when LLMs are deployed in the real&amp;nbsp;world.&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/&quot;&gt;The mounting human and environmental costs of generative AI&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/230f8f7224199132de4ce030458536de/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;🪵 Enseignez le code sans&amp;nbsp;ordinateur&lt;/p&gt;
&lt;p&gt;CODE EN BOIS est un système innovant et écologique qui permet d’initier à la programmation en manipulant des briques d’instructions en bois. La seule question qu’on se pose, c’est «&amp;nbsp;pourquoi ça n’existait pas&amp;nbsp;avant&amp;#8239;?&amp;nbsp;»&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;a href=&quot;https://codeenbois.fr/&quot;&gt;CODE EN&amp;nbsp;BOIS&lt;/a&gt;&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;blockquote&gt;
&lt;p&gt;🌌 J’ai ressenti l’impulsion après qu’une amie a demandé à la cantonade “ma fille voudrait aller voir les aurores boréales, mais ma famille ne prend plus l’avion, vous pensez que c’est possible en train&amp;#8239;?”. &lt;mark&gt;Ça doit être possible, je me suis dit, mais compliqué à organiser.&lt;/mark&gt; Et puis j’ai regardé les cartes, les zones de visibilité des aurores, les meilleures périodes de l’année pour les voir, la météo scandinave, les prédictions d’activité solaire… en fait, c’est bien plus accessible que je ne le pensais. Et si j’y&amp;nbsp;allais&amp;#8239;?&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://blog.professeurjoachim.com/billet/2023-03-31-aller-voir-les-aurores-boreales-en-train&quot;&gt;Aller voir les aurores boréales en train&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/096a44a83d8d3f2bdfd21e3d378e4719/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;nav&gt;&lt;p&gt;&lt;a href=&quot;https://larlet.fr/david/2023/complexite/&quot;&gt;#complexité&lt;/a&gt; &lt;a href=&quot;https://larlet.fr/david/2023/sociologie/&quot;&gt;#sociologie&lt;/a&gt; &lt;a href=&quot;https://larlet.fr/david/2023/technique/&quot;&gt;#technique&lt;/a&gt;&lt;/p&gt;&lt;/nav&gt;&lt;hr/&gt;&lt;p&gt;&lt;a href=&quot;mailto:david@larlet.fr&quot;&gt;Réagir ?&lt;/a&gt;&lt;/p&gt;</summary>
</entry>
<entry xml:lang="fr">
<title type="html">Long&amp;nbsp;cours</title>
<link href="https://larlet.fr/david/2023/05/01/" rel="alternate" type="text/html" />
@@ -1236,29 +1302,6 @@ Mais il est terminé, et c’est le plus&amp;nbsp;important.&lt;/p&gt;
&lt;nav&gt;&lt;p&gt;&lt;a href=&quot;https://larlet.fr/david/2023/gratitude/&quot;&gt;#gratitude&lt;/a&gt; &lt;a href=&quot;https://larlet.fr/david/2023/simplicite/&quot;&gt;#simplicité&lt;/a&gt; &lt;a href=&quot;https://larlet.fr/david/2023/sport/&quot;&gt;#sport&lt;/a&gt;&lt;/p&gt;&lt;/nav&gt;&lt;hr/&gt;&lt;p&gt;&lt;a href=&quot;mailto:david@larlet.fr&quot;&gt;Réagir ?&lt;/a&gt;&lt;/p&gt;</summary>
</entry>
<entry xml:lang="fr">
<title type="html">Chasse</title>
<link href="https://larlet.fr/david/2023/01/16/" rel="alternate" type="text/html" />
<updated>2023-01-16T12:00:00+01:00</updated>
<id>https://larlet.fr/david/2023/01/16/</id>
<summary type="html">
&lt;p&gt;Je me demande toujours quel est l’impact carbone de la chasse en terme de consommation de viande. Ou plutôt quels seraient les effets de bord d’une interdiction de la&amp;nbsp;chasse.&lt;/p&gt;
&lt;p&gt;Si toute la viande chassée ne l’était pas, est-ce que ça se transformerait en achat de steaks de bœuf&amp;#8239;? Est-ce que cela signifierait encore davantage de cultures sacrifiées pour élever des animaux et les manger&amp;#8239;? Plus de pauvreté ou malnutrition dans les populations&amp;nbsp;rurales&amp;#8239;?&lt;/p&gt;
&lt;p&gt;Et que feraient ces personnes pendant ces moments là&amp;#8239;? Est-ce que le temps libéré produirait encore davantage de dépenses d’énergies&amp;#8239;? Encore plus de déplacements en voiture et de consommation&amp;#8239;? Et que deviendraient toutes ces armes, au service de qui pourraient-elles être&amp;nbsp;réutilisées&amp;#8239;?&lt;/p&gt;
&lt;p&gt;Si ça se trouve, sans le savoir, ce sont vraiment les premiers écolos de France. (Non.)&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Mise à jour le jour&amp;nbsp;même&amp;nbsp;:&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://pouet.it/@im/109699383509639063&quot;&gt;iGor lilith me propose&lt;/a&gt; de regarder le reportage d’Arte «&amp;nbsp;&lt;a href=&quot;https://www.arte.tv/fr/videos/103447-012-A/pourquoi-deteste-t-on-la-chasse/&quot;&gt;Pourquoi déteste-t-on la chasse&amp;#8239;?&lt;/a&gt;&amp;nbsp;» qui me donne d’autres pistes de réflexion. Merci&amp;#8239;!&lt;/p&gt;
&lt;hr /&gt;

&lt;blockquote&gt;
&lt;p&gt;En théorie, un vol en avion à New York consomme autant d’énergie que l’utilisation de canons d’une grande station durant tout un&amp;nbsp;hiver.&lt;/p&gt;
&lt;p&gt;Pour vérifier de manière pratique, &lt;mark&gt;le footballeur Killian MBappé a participé à une expérience scientifique.&lt;/mark&gt; Après le match perdu contre Lens, le 1&amp;nbsp;janvier, il a pris son jet privé pour aller voir un match de basket à New York le 2&amp;nbsp;janvier, et retour à la case départ le lendemain pour l’entraînement du soir à&amp;nbsp;Paris.&lt;/p&gt;
&lt;p&gt;L’expérience a montré, qu’effectivement un vol en avion à New York consomme plus d’énergie que des canons à neige pendant tout l’hiver. On remercie Killian pour aider la science et le&amp;nbsp;foot.&lt;/p&gt;
&lt;p&gt;&lt;cite&gt;&lt;em&gt;&lt;a href=&quot;https://www.2000watts.org/index.php/home/reflexion/1317-les-droles-nouvelles-de-l-energie.html&quot;&gt;Les Drôles Nouvelles de l’Energie&lt;/a&gt;&lt;/em&gt;&amp;nbsp;(&lt;a href=&quot;https://larlet.fr/david/cache/2023/d6877059a2203cab6c811c5ee3148c17/&quot;&gt;cache&lt;/a&gt;)&lt;/cite&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;nav&gt;&lt;p&gt;&lt;a href=&quot;https://larlet.fr/david/2023/complexite/&quot;&gt;#complexité&lt;/a&gt; &lt;a href=&quot;https://larlet.fr/david/2023/recherche/&quot;&gt;#recherche&lt;/a&gt; &lt;a href=&quot;https://larlet.fr/david/2023/viande/&quot;&gt;#viande&lt;/a&gt;&lt;/p&gt;&lt;/nav&gt;&lt;hr/&gt;&lt;p&gt;&lt;a href=&quot;mailto:david@larlet.fr&quot;&gt;Réagir ?&lt;/a&gt;&lt;/p&gt;</summary>
</entry>

<entry xml:lang="fr">
<title type="html">Marcher</title>

+ 6
- 0
david/recherche/index.html
文件差异内容过多而无法显示
查看文件


正在加载...
取消
保存