• Can Humanity Survive AI ?
    https://jacobin.com/2024/01/can-humanity-survive-ai

    La question est l’expression des intérêts d’une partie des habitants de la bulle californienne. Elle est quand même intéressante car elle tourne autour des idées dangereuses de quelques très riches politiciens et entrepreneurs. Mettez vos centures avant de commencer le tour des montagnes russes de cet article.

    22.1.2024 by Garrison Lovely - With the development of artificial intelligence racing forward at warp speed, some of the richest men in the world may be deciding the fate of humanity right now.

    Google cofounder Larry Page thinks superintelligent AI is “just the next step in evolution.” In fact, Page, who’s worth about $120 billion, has reportedly argued that efforts to prevent AI-driven extinction and protect human consciousness are “speciesist” and “sentimental nonsense.”

    In July, former Google DeepMind senior scientist Richard Sutton — one of the pioneers of reinforcement learning, a major subfield of AI — said that the technology “could displace us from existence,” and that “we should not resist succession.” In a 2015 talk, Sutton said, suppose “everything fails” and AI “kill[s] us all”; he asked, “Is it so bad that humans are not the final form of intelligent life in the universe?”

    “Biological extinction, that’s not the point,” Sutton, sixty-six, told me. “The light of humanity and our understanding, our intelligence — our consciousness, if you will — can go on without meat humans.”

    Yoshua Bengio, fifty-nine, is the second-most cited living scientist, noted for his foundational work on deep learning. Responding to Page and Sutton, Bengio told me, “What they want, I think it’s playing dice with humanity’s future. I personally think this should be criminalized.” A bit surprised, I asked what exactly he wanted outlawed, and he said efforts to build “AI systems that could overpower us and have their own self-interest by design.” In May, Bengio began writing and speaking about how advanced AI systems might go rogue and pose an extinction risk to humanity.

    Bengio posits that future, genuinely human-level AI systems could improve their own capabilities, functionally creating a new, more intelligent species. Humanity has driven hundreds of other species extinct, largely by accident. He fears that we could be next — and he isn’t alone.

    Bengio shared the 2018 Turing Award, computing’s Nobel Prize, with fellow deep learning pioneers Yann LeCun and Geoffrey Hinton. Hinton, the most cited living scientist, made waves in May when he resigned from his senior role at Google to more freely sound off about the possibility that future AI systems could wipe out humanity. Hinton and Bengio are the two most prominent AI researchers to join the “x-risk” community. Sometimes referred to as AI safety advocates or doomers, this loose-knit group worries that AI poses an existential risk to humanity.

    In the same month that Hinton resigned from Google, hundreds of AI researchers and notable figures signed an open letter stating, “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.” Hinton and Bengio were the lead signatories, followed by OpenAI CEO Sam Altman and the heads of other top AI labs.

    Hinton and Bengio were also the first authors of an October position paper warning about the risk of “an irreversible loss of human control over autonomous AI systems,” joined by famous academics like Nobel laureate Daniel Kahneman and Sapiens author Yuval Noah Harari.

    LeCun, who runs AI at Meta, agrees that human-level AI is coming but said in a public debate against Bengio on AI extinction, “If it’s dangerous, we won’t build it.”

    Deep learning powers the most advanced AI systems in the world, from DeepMind’s protein-folding model to large language models (LLMs) like OpenAI’s ChatGPT. No one really understands how deep learning systems work, but their performance has continued to improve nonetheless. These systems aren’t designed to function according to a set of well-understood principles but are instead “trained” to analyze patterns in large datasets, with complex behavior — like language understanding — emerging as a consequence. AI developer Connor Leahy told me, “It’s more like we’re poking something in a Petri dish” than writing a piece of code. The October position paper warns that “no one currently knows how to reliably align AI behavior with complex values.”

    In spite of all this uncertainty, AI companies see themselves as being in a race to make these systems as powerful as they can — without a workable plan to understand how the things they’re creating actually function, all while cutting corners on safety to win more market share. Artificial general intelligence (AGI) is the holy grail that leading AI labs are explicitly working toward. AGI is often defined as a system that is at least as good as humans at almost any intellectual task. It’s also the thing that Bengio and Hinton believe could lead to the end of humanity.

    Bizarrely, many of the people actively advancing AI capabilities think there’s a significant chance that doing so will ultimately cause the apocalypse. A 2022 survey of machine learning researchers found that nearly half of them thought there was at least a 10 percent chance advanced AI could lead to “human extinction or [a] similarly permanent and severe disempowerment” of humanity. Just months before he cofounded OpenAI, Altman said, “AI will probably most likely lead to the end of the world, but in the meantime, there’ll be great companies.”

    Public opinion on AI has soured, particularly in the year since ChatGPT was released. In all but one 2023 survey, more Americans than not have thought that AI could pose an existential threat to humanity. In the rare instances when pollsters asked people if they wanted human-level or beyond AI, strong majorities in the United States and the UK said they didn’t.

    So far, when socialists weigh in on AI, it’s usually to highlight AI-powered discrimination or to warn about the potentially negative impact of automation in a world of weak unions and powerful capitalists. But the Left has been conspicuously quiet about Hinton and Bengio’s nightmare scenario — that advanced AI could kill us all.
    Worrying Capabilities
    Illustration by Ricardo Santos

    While much of the attention from the x-risk community focuses on the idea that humanity could eventually lose control of AI, many are also worried about less capable systems empowering bad actors on very short timelines.

    Thankfully, it’s hard to make a bioweapon. But that might change soon.

    Anthropic, a leading AI lab founded by safety-forward ex-OpenAI staff, recently worked with biosecurity experts to see how much an LLM could help an aspiring bioterrorist. Testifying before a Senate subcommittee in July, Anthropic CEO Dario Amodei reported that certain steps in bioweapons production can’t be found in textbooks or search engines, but that “today’s AI tools can fill in some of these steps, albeit incompletely,” and that “a straightforward extrapolation of today’s systems to those we expect to see in two to three years suggests a substantial risk that AI systems will be able to fill in all the missing pieces.”

    In October, New Scientist reported that Ukraine made the first battlefield use of lethal autonomous weapons (LAWs) — literally killer robots. The United States, China, and Israel are developing their own LAWs. Russia has joined the United States and Israel in opposing new international law on LAWs.

    However, the more expansive idea that AI poses an existential risk has many critics, and the roiling AI discourse is hard to parse: equally credentialed people make opposite claims about whether AI x-risk is real, and venture capitalists are signing open letters with progressive AI ethicists. And while the x-risk idea seems to be gaining ground the fastest, a major publication runs an essay seemingly every week arguing that x-risk distracts from existing harms. Meanwhile, orders of magnitude more money and people are quietly dedicated to making AI systems more powerful than to making them safer or less biased.

    Some fear not the “sci-fi” scenario where AI models get so capable they wrest control from our feeble grasp, but instead that we will entrust biased, brittle, and confabulating systems with too much responsibility, opening a more pedestrian Pandora’s box full of awful but familiar problems that scale with the algorithms causing them. This community of researchers and advocates — often labeled “AI ethics” — tends to focus on the immediate harms being wrought by AI, exploring solutions involving model accountability, algorithmic transparency, and machine learning fairness.

    I spoke with some of the most prominent voices from the AI ethics community, like computer scientists Joy Buolamwini, thirty-three, and Inioluwa Deborah Raji, twenty-seven. Each has conducted pathbreaking research into existing harms caused by discriminatory and flawed AI models whose impacts, in their view, are obscured one day and overhyped the next. Like that of many AI ethics researchers, their work blends science and activism.

    Those I spoke to within the AI ethics world largely expressed a view that, rather than facing fundamentally new challenges like the prospect of complete technological unemployment or extinction, the future of AI looks more like intensified racial discrimination in incarceration and loan decisions, the Amazon warehouse-ification of workplaces, attacks on the working poor, and a further entrenched and enriched techno-elite.
    Illustration by Ricardo Santos

    A frequent argument from this crowd is that the extinction narrative overhypes the capabilities of Big Tech’s products and dangerously “distracts” from AI’s immediate harms. At best, they say, entertaining the x-risk idea is a waste of time and money. At worst, it leads to disastrous policy ideas.

    But many of the x-risk believers highlighted that the positions “AI causes harm now” and “AI could end the world” are not mutually exclusive. Some researchers have tried explicitly to bridge the divide between those focused on existing harms and those focused on extinction, highlighting potential shared policy goals. AI professor Sam Bowman, another person whose name is on the extinction letter, has done research to reveal and reduce algorithmic bias and reviews submissions to the main AI ethics conference. Simultaneously, Bowman has called for more researchers to work on AI safety and wrote of the “dangers of underclaiming” the abilities of LLMs.

    The x-risk community commonly invokes climate advocacy as an analogy, asking whether the focus on reducing the long-term harms of climate change dangerously distracts from the near-term harms from air pollution and oil spills.

    But by their own admission, not everyone from the x-risk side has been as diplomatic. In an August 2022 thread of spicy AI policy takes, Anthropic cofounder Jack Clark tweeted that “Some people who work on long-term/AGI-style policy tend to ignore, minimize, or just not consider the immediate problems of AI deployment/harms.”
    “AI Will Save the World”

    A third camp worries that when it comes to AI, we’re not actually moving fast enough. Prominent capitalists like billionaire Marc Andreessen agree with safety folks that AGI is possible but argue that, rather than killing us all, it will usher in an indefinite golden age of radical abundance and borderline magical technologies. This group, largely coming from Silicon Valley and commonly referred to as AI boosters, tends to worry far more that regulatory overreaction to AI will smother a transformative, world-saving technology in its crib, dooming humanity to economic stagnation.

    Some techno-optimists envision an AI-powered utopia that makes Karl Marx seem unimaginative. The Guardian recently released a mini-documentary featuring interviews from 2016 through 2019 with OpenAI’s chief scientist, Ilya Sutskever, who boldly pronounces: “AI will solve all the problems that we have today. It will solve employment, it will solve disease, it will solve poverty. But it will also create new problems.”

    Andreessen is with Sutskever — right up until the “but.” In June, Andreessen published an essay called “Why AI Will Save the World,” where he explains how AI will make “everything we care about better,” as long as we don’t regulate it to death. He followed it up in October with his “Techno-Optimist Manifesto,” which, in addition to praising a founder of Italian fascism, named as enemies of progress ideas like “existential risk,” “sustainability,” “trust and safety,” and “tech ethics.” Andreessen does not mince words, writing, “We believe any deceleration of AI will cost lives. Deaths that were preventable by the AI that was prevented from existing [are] a form of murder.”

    Andreessen, along with “pharma bro” Martin Shkreli, is perhaps the most famous proponent of “effective accelerationism,” also called “e/acc,” a mostly online network that mixes cultish scientism, hypercapitalism, and the naturalistic fallacy. E/acc, which went viral this summer, builds on reactionary writer Nick Land’s theory of accelerationism, which argues that we need to intensify capitalism to propel ourselves into a posthuman, AI-powered future. E/acc takes this idea and adds a layer of physics and memes, mainstreaming it for a certain subset of Silicon Valley elites. It was formed in reaction to calls from “decels” to slow down AI, which have come significantly from the effective altruism (EA) community, from which e/acc takes its name.

    AI booster Richard Sutton — the scientist ready to say his goodbyes to “meat humans” — is now working at Keen AGI, a new start-up from John Carmack, the legendary programmer behind the 1990s video game Doom. The company mission, according to Carmack: “AGI or bust, by way of Mad Science!”
    Capitalism Makes It Worse

    In February, Sam Altman tweeted that Eliezer Yudkowsky might eventually “deserve the Nobel Peace Prize.” Why? Because Altman thought the autodidactic researcher and Harry Potter fan-fiction author had done “more to accelerate AGI than anyone else.” Altman cited how Yudkowsky helped DeepMind secure pivotal early-stage funding from Peter Thiel as well as Yudkowsky’s “critical” role “in the decision to start OpenAI.”

    Yudkowsky was an accelerationist before the term was even coined. At the age of seventeen — fed up with dictatorships, world hunger, and even death itself — he published a manifesto demanding the creation of a digital superintelligence to “solve” all of humanity’s problems. Over the next decade of his life, his “technophilia” turned to phobia, and in 2008 he wrote about his conversion story, admitting that “to say, I almost destroyed the world!, would have been too prideful.”

    Yudkowsky is now famous for popularizing the idea that AGI could kill everyone, and he has become the doomiest of the AI doomers. A generation of techies grew up reading Yudkowsky’s blog posts, but more of them (perhaps most consequentially, Altman) internalized his arguments that AGI would be the most important thing ever than his beliefs about how hard it would be to get it not to kill us.

    During our conversation, Yudkowsky compared AI to a machine that “prints gold,” right up until it “ignite[s] the atmosphere.”

    And whether or not it will ignite the atmosphere, that machine is printing gold faster than ever. The “generative AI” boom is making some people very, very rich. Since 2019, Microsoft has invested a cumulative $13 billion into OpenAI. Buoyed by the wild success of ChatGPT, Microsoft gained nearly $1 trillion in value in the year following the product’s release. Today the nearly fifty-year-old corporation is worth more than Google and Meta combined.

    Profit-maximizing actors will continue barreling forward, externalizing risks the rest of us never agreed to bear, in the pursuit of riches — or simply the glory of creating digital superintelligence, which Sutton tweeted “will be the greatest intellectual achievement of all time … whose significance is beyond humanity, beyond life, beyond good and bad.” Market pressures will likely push companies to transfer more and more power and autonomy to AI systems as they improve.

    One Google AI researcher wrote to me, “I think big corps are in such a rush to win market share that [AI] safety is seen as a kind of silly distraction.” Bengio told me he sees “a dangerous race between companies” that could get even worse.

    Panicking in response to the OpenAI-powered Bing search engine, Google declared a “code red,” “recalibrate[d]” their risk appetite, and rushed to release Bard, their LLM, over staff opposition. In internal discussions, employees called Bard “a pathological liar” and “cringe-worthy.” Google published it anyway.

    Dan Hendrycks, the director of the Center for AI Safety, said that “cutting corners on safety . . . is largely what AI development is driven by. . . . I don’t think, actually, in the presence of these intense competitive pressures, that intentions particularly matter.” Ironically, Hendrycks is also the safety adviser to xAI, Elon Musk’s latest venture.

    The three leading AI labs all began as independent, mission-driven organizations, but they are now either full subsidiaries of tech behemoths (Google DeepMind) or have taken on so many billions of dollars in investment from trillion-dollar companies that their altruistic missions may get subsumed by the endless quest for shareholder value (Anthropic has taken up to $6 billion from Google and Amazon combined, and Microsoft’s $13 billion bought them 49 percent of OpenAI’s for-profit arm). The New York Times recently reported that DeepMind’s founders became “increasingly worried about what Google would do with their inventions. In 2017, they tried to break away from the company. Google responded by increasing the salaries and stock award packages of the DeepMind founders and their staff. They stayed put.”

    One developer at a leading lab wrote to me in October that, since the leadership of these labs typically truly believes AI will obviate the need for money, profit-seeking is “largely instrumental” for fundraising purposes. But “then the investors (whether it’s a VC firm or Microsoft) exert pressure for profit-seeking.”

    Between 2020 and 2022, more than $600 billion in corporate investment flowed into the industry, and a single 2021 AI conference hosted nearly thirty thousand researchers. At the same time, a September 2022 estimate found only four hundred full-time AI safety researchers, and the primary AI ethics conference had fewer than nine hundred attendees in 2023.

    The way software “ate the world,” we should expect AI to exhibit a similar winner-takes-all dynamic that will lead to even greater concentrations of wealth and power. Altman has predicted that the “cost of intelligence” will drop to near zero as a result of AI, and in 2021 he wrote that “even more power will shift from labor to capital.” He continued, “If public policy doesn’t adapt accordingly, most people will end up worse off than they are today.” Also in his “spicy take” thread, Jack Clark wrote, “economy-of-scale capitalism is, by nature, anti-democratic, and capex-intensive AI is therefore anti-democratic.”

    Markus Anderljung is the policy chief at GovAI, a leading AI safety think tank, and the first author on an influential white paper focused on regulating “frontier AI.” He wrote to me and said, “If you’re worried about capitalism in its current form, you should be even more worried about a world where huge parts of the economy are run by AI systems explicitly trained to maximize profit.”

    Sam Altman, circa June 2021, agreed, telling Ezra Klein about the founding philosophy of OpenAI: “One of the incentives that we were very nervous about was the incentive for unlimited profit, where more is always better. . . . And I think with these very powerful general purpose AI systems, in particular, you do not want an incentive to maximize profit indefinitely.”

    In a stunning move that has become widely seen as the biggest flash point in the AI safety debate so far, Open-AI’s nonprofit board fired CEO Sam Altman on November 17, 2023, the Friday before Thanksgiving. The board, per OpenAI’s unusual charter, has a fiduciary duty to “humanity,” rather than to investors or employees. As justification, the board vaguely cited Altman’s lack of candor but then ironically largely kept quiet about its decision.

    Around 3 a.m. the following Monday, Microsoft announced that Altman would be spinning up an advanced research lab with positions for every OpenAI employee, the vast majority of whom signed a letter threatening to take Microsoft’s offer if Altman wasn’t reinstated. (While he appears to be a popular CEO, it’s worth noting that the firing disrupted a planned sale of OpenAI’s employee-owned stock at a company valuation of $86 billion.) Just after 1 a.m. on Wednesday, OpenAI announced Altman’s return as CEO and two new board members: the former Twitter board chair, and former Treasury secretary Larry Summers.

    Within less than a week, OpenAI executives and Altman had collaborated with Microsoft and the company’s staff to engineer his successful return and the removal of most of the board members behind his firing. Microsoft’s first preference was having Altman back as CEO. The unexpected ouster initially sent the legacy tech giant’s stock plunging 5 percent ($140 billion), and the announcement of Altman’s reinstatement took it to an all-time high. Loath to be “blindsided” again, Microsoft is now taking a nonvoting seat on the nonprofit board.

    Immediately after Altman’s firing, X exploded, and a narrative largely fueled by online rumors and anonymously sourced articles emerged that safety-focused effective altruists on the board had fired Altman over his aggressive commercialization of OpenAI’s models at the expense of safety. Capturing the tenor of the overwhelming e/acc response, then pseudonymous founder @BasedBeffJezos posted, “EAs are basically terrorists. Destroying 80B of value overnight is an act of terrorism.”

    The picture that emerged from subsequent reporting was that a fundamental mistrust of Altman, not immediate concerns about AI safety, drove the board’s choice. The Wall Street Journal found that “there wasn’t one incident that led to their decision to eject Altman, but a consistent, slow erosion of trust over time that made them increasingly uneasy.”

    Weeks before the firing, Altman reportedly used dishonest tactics to try to remove board member Helen Toner over an academic paper she coauthored that he felt was critical of OpenAI’s commitment to AI safety. In the paper, Toner, an EA-aligned AI governance researcher, lauded Anthropic for avoiding “the kind of frantic corner-cutting that the release of ChatGPT appeared to spur.”

    The New Yorker reported that “some of the board’s six members found Altman manipulative and conniving.” Days after the firing, a DeepMind AI safety researcher who used to work for OpenAI wrote that Altman “lied to me on various occasions” and “was deceptive, manipulative, and worse to others,” an assessment echoed by recent reporting in Time.

    This wasn’t Altman’s first time being fired. In 2019, Y Combinator founder Paul Graham removed Altman from the incubator’s helm over concerns that he was prioritizing his own interests over those of the organization. Graham has previously said, “Sam is extremely good at becoming powerful.”

    OpenAI’s strange governance model was established specifically to prevent the corrupting influence of profit-seeking, but as the Atlantic rightly proclaimed, “the money always wins.” And more money than ever is going into advancing AI capabilities.
    Full Speed Ahead

    Recent AI progress has been driven by the culmination of many decades-long trends: increases in the amount of computing power (referred to as “compute”) and data used to train AI models, which themselves have been amplified by significant improvements in algorithmic efficiency. Since 2010, the amount of compute used to train AI models has increased roughly one-hundred-millionfold. Most of the advances we’re seeing now are the product of what was at the time a much smaller and poorer field.

    And while the last year has certainly contained more than its fair share of AI hype, the confluence of these three trends has led to quantifiable results. The time it takes AI systems to achieve human-level performance on many benchmark tasks has shortened dramatically in the last decade.

    It’s possible, of course, that AI capability gains will hit a wall. Researchers may run out of good data to use. Moore’s law — the observation that the number of transistors on a microchip doubles every two years — will eventually become history. Political events could disrupt manufacturing and supply chains, driving up compute costs. And scaling up systems may no longer lead to better performance.

    But the reality is that no one knows the true limits of existing approaches. A clip of a January 2022 Yann LeCun interview resurfaced on Twitter this year. LeCun said, “I don’t think we can train a machine to be intelligent purely from text, because I think the amount of information about the world that’s contained in text is tiny compared to what we need to know.” To illustrate his point, he gave an example: “I take an object, I put it on the table, and I push the table. It’s completely obvious to you that the object would be pushed with the table.” However, with “a text-based model, if you train a machine, as powerful as it could be, your ‘GPT-5000’ . . . it’s never gonna learn about this.”

    But if you give ChatGPT-3.5 that example, it instantly spits out the correct answer.

    In an interview published four days before his firing, Altman said, “Until we go train that model [GPT-5], it’s like a fun guessing game for us. We’re trying to get better at it, because I think it’s important from a safety perspective to predict the capabilities. But I can’t tell you here’s exactly what it’s going to do that GPT-4 didn’t.”

    History is littered with bad predictions about the pace of innovation. A New York Times editorial claimed it might take “one million to ten million years” to develop a flying machine — sixty-nine days before the Wright Brothers first flew. In 1933, Ernest Rutherford, the “father of nuclear physics,” confidently dismissed the possibility of a neutron-induced chain reaction, inspiring physicist Leo Szilard to hypothesize a working solution the very next day — a solution that ended up being foundational to the creation of the atomic bomb.

    One conclusion that seems hard to avoid is that, recently, the people who are best at building AI systems believe AGI is both possible and imminent. Perhaps the two leading AI labs, OpenAI and DeepMind, have been working toward AGI since their inception, starting when admitting you believed it was possible anytime soon could get you laughed out of the room. (Ilya Sutskever led a chant of “Feel the AGI” at OpenAI’s 2022 holiday party.)
    Perfect Workers

    Employers are already using AI to surveil, control, and exploit workers. But the real dream is to cut humans out of the loop. After all, as Marx wrote, “The machine is a means for producing surplus-value.”

    Open Philanthropy (OP) AI risk researcher Ajeya Cotra wrote to me that “the logical end point of a maximally efficient capitalist or market economy” wouldn’t involve humans because “humans are just very inefficient creatures for making money.” We value all these “commercially unproductive” emotions, she writes, “so if we end up having a good time and liking the outcome, it’ll be because we started off with the power and shaped the system to be accommodating to human values.”

    OP is an EA-inspired foundation financed by Facebook cofounder Dustin Moskovitz. It’s the leading funder of AI safety organizations, many of which are mentioned in this article. OP also granted $30 million to OpenAI to support AI safety work two years before the lab spun up a for-profit arm in 2019. I previously received a onetime grant to support publishing work at New York Focus, an investigative news nonprofit covering New York politics, from EA Funds, which itself receives funding from OP. After I first encountered EA in 2017, I began donating 10 to 20 percent of my income to global health and anti–factory farming nonprofits, volunteered as a local group organizer, and worked at an adjacent global poverty nonprofit. EA was one of the earliest communities to seriously engage with AI existential risk, but I looked at the AI folks with some wariness, given the uncertainty of the problem and the immense, avoidable suffering happening now.

    A compliant AGI would be the worker capitalists can only dream of: tireless, motivated, and unburdened by the need for bathroom breaks. Managers from Frederick Taylor to Jeff Bezos resent the various ways in which humans aren’t optimized for output — and, therefore, their employer’s bottom line. Even before the days of Taylor’s scientific management, industrial capitalism has sought to make workers more like the machines they work alongside and are increasingly replaced by. As The Communist Manifesto presciently observed, capitalists’ extensive use of machinery turns a worker into “an appendage of the machine.”

    But according to the AI safety community, the very same inhuman capabilities that would make Bezos salivate also make AGI a mortal danger to humans.
    Explosion: The Extinction Case

    The common x-risk argument goes: once AI systems reach a certain threshold, they’ll be able to recursively self-improve, kicking off an “intelligence explosion.” If a new AI system becomes smart — or just scaled up — enough, it will be able to permanently disempower humanity.

    The October “Managing AI Risks” paper states:

    There is no fundamental reason why AI progress would slow or halt when it reaches human-level abilities. . . . Compared to humans, AI systems can act faster, absorb more knowledge, and communicate at a far higher bandwidth. Additionally, they can be scaled to use immense computational resources and can be replicated by the millions.

    These features have already enabled superhuman abilities: LLMs can “read” much of the internet in months, and DeepMind’s AlphaFold can perform years of human lab work in a few days.

    Here’s a stylized version of the idea of “population” growth spurring an intelligence explosion: if AI systems rival human scientists at research and development, the systems will quickly proliferate, leading to the equivalent of an enormous number of new, highly productive workers entering the economy. Put another way, if GPT-7 can perform most of the tasks of a human worker and it only costs a few bucks to put the trained model to work on a day’s worth of tasks, each instance of the model would be wildly profitable, kicking off a positive feedback loop. This could lead to a virtual “population” of billions or more digital workers, each worth much more than the cost of the energy it takes to run them. Sutskever thinks it’s likely that “the entire surface of the earth will be covered with solar panels and data centers.”

    These digital workers might be able to improve on our AI designs and bootstrap their way to creating “superintelligent” systems, whose abilities Alan Turing speculated in 1951 would soon “outstrip our feeble powers.” And, as some AI safety proponents argue, an individual AI model doesn’t have to be superintelligent to pose an existential threat; there might just need to be enough copies of it. Many of my sources likened corporations to superintelligences, whose capabilities clearly exceed those of their constituent members.

    “Just unplug it,” goes the common objection. But once an AI model is powerful enough to threaten humanity, it will probably be the most valuable thing in existence. You might have an easier time “unplugging” the New York Stock Exchange or Amazon Web Services.

    A lazy superintelligence may not pose much of a risk, and skeptics like Allen Institute for AI CEO Oren Etzioni, complexity professor Melanie Mitchell, and AI Now Institute managing director Sarah Myers West all told me they haven’t seen convincing evidence that AI systems are becoming more autonomous. Anthropic’s Dario Amodei seems to agree that current systems don’t exhibit a concerning level of agency. However, a completely passive but sufficiently powerful system wielded by a bad actor is enough to worry people like Bengio.

    Further, academics and industrialists alike are increasing efforts to make AI models more autonomous. Days prior to his firing, Altman told the Financial Times: “We will make these agents more and more powerful . . . and the actions will get more and more complex from here. . . . The amount of business value that will come from being able to do that in every category, I think, is pretty good.”
    What’s Behind the Hype?

    The fear that keeps many x-risk people up at night is not that an advanced AI would “wake up,” “turn evil,” and decide to kill everyone out of malice, but rather that it comes to see us as an obstacle to whatever goals it does have. In his final book, Brief Answers to the Big Questions, Stephen Hawking articulated this, saying, “You’re probably not an evil ant-hater who steps on ants out of malice, but if you’re in charge of a hydroelectric green-energy project and there’s an anthill in the region to be flooded, too bad for the ants.”

    Unexpected and undesirable behaviors can result from simple goals, whether it’s profit or an AI’s reward function. In a “free” market, profit-seeking leads to monopolies, multi-level marketing schemes, poisoned air and rivers, and innumerable other harms.

    There are abundant examples of AI systems exhibiting surprising and unwanted behaviors. A program meant to eliminate sorting errors in a list deleted the list entirely. One researcher was surprised to find an AI model “playing dead” to avoid being identified on safety tests.

    Yet others see a Big Tech conspiracy looming behind these concerns. Some people focused on immediate harms from AI argue that the industry is actively promoting the idea that their products might end the world, like Myers West of the AI Now Institute, who says she “see[s] the narratives around so-called existential risk as really a play to take all the air out of the room, in order to ensure that there’s not meaningful movement in the present moment.” Strangely enough, Yann LeCun and Baidu AI chief scientist Andrew Ng purport to agree.

    When I put the idea to x-risk believers, they often responded with a mixture of confusion and exasperation. OP’s Ajeya Cotra wrote back: “I wish it were less of an industry-associated thing to be concerned about x-risk, because I think it’s just really fundamentally, on the merits, a very anti-industry belief to have. . . . If the companies are building things that are going to kill us all, that’s really bad, and they should be restricted very stringently by the law.”

    GovAI’s Markus Anderljung called fears of regulatory capture “a natural reaction for folks to have,” but he emphasized that his preferred policies may well harm the industry’s biggest players.

    One understandable source of suspicion is that Sam Altman is now one of the people most associated with the existential risk idea, but his company has done more than any other to advance the frontier of general-purpose AI.

    Additionally, as OpenAI got closer to profitability and Altman got closer to power, the CEO changed his public tune. In a January 2023 Q and A, when asked about his worst-case scenario for AI, he replied, “Lights out for all of us.” But while answering a similar question under oath before senators in May, Altman doesn’t mention extinction. And, in perhaps his last interview before his firing, Altman said, “I actually don’t think we’re all going to go extinct. I think it’s going to be great. I think we’re heading towards the best world ever.”

    Altman implored Congress in May to regulate the AI industry, but a November investigation found that OpenAI’s quasi-parent company Microsoft was influential in the ultimately unsuccessful lobbying to exclude “foundation models” like ChatGPT from regulation by the forthcoming EU AI Act. And Altman did plenty of his own lobbying in the EU, even threatening to pull out of the region if regulations became too onerous (threats he quickly walked back). Speaking on a CEO panel in San Francisco days before his ouster, Altman said that “current models are fine. We don’t need heavy regulation here. Probably not even for the next couple of generations.”

    President Joe Biden’s recent “sweeping” executive order on AI seems to agree: its safety test information sharing requirements only affect models larger than any that have likely been trained so far. Myers West called these kinds of “scale thresholds” a “massive carveout.” Anderljung wrote to me that regulation should scale with a system’s capabilities and usage, and said that he “would like some regulation of today’s most capable and widely used models,” but he thinks it will “be a lot more politically viable to impose requirements on systems that are yet to be developed.”

    Inioluwa Deborah Raji ventured that if the tech giants “know that they have to be the bad guy in some dimension . . . they would prefer for it to be abstract and long-term in timeline.” This sounds far more plausible to me than the idea that Big Tech actually wants to promote the idea that their products have a decent chance of literally killing everyone.

    Nearly seven hundred people signed the extinction letter, the majority of them academics. Only one of them runs a publicly traded company: OP funder Moskovitz, who is also cofounder and CEO of Asana, a productivity app. There were zero employees from Amazon, Apple, IBM, or any leading AI hardware firms. No Meta executives signed.

    If the heads of the Big Tech firms wanted to amplify the extinction narrative, why haven’t they added their names to the list?
    Why Build the “Doom Machine?”

    If AI actually does save the world, whoever created it may hope to be lauded like a modern Julius Caesar. And even if it doesn’t, whoever first builds “the last invention that man need ever make” will not have to worry about being forgotten by history — unless, of course, history ends abruptly after their invention.

    Connor Leahy thinks that, on our current path, the end of history will shortly follow the advent of AGI. With his flowing hair and unkempt goatee, he would probably look at home wearing a sandwich board reading “The end is nigh” — though that hasn’t prevented him from being invited to address the British House of Lords or CNN. The twenty-eight-year-old CEO of Conjecture and cofounder of EleutherAI, an influential open-source collective, told me that a lot of the motivation to build AI boils down to: “‘Oh, you’re building the ultimate doom machine that makes you billions of dollars and also king-emperor of earth or kills everybody?’ Yeah, that’s like the masculine dream. You’re like, ‘Fuck yeah. I am the doom king.’” He continues, “Like, I get it. This is very much in the Silicon Valley aesthetic.”

    Leahy also conveyed some-thing that won’t surprise people who have spent significant time in the Bay Area or certain corners of the internet:

    There are actual, completely unaccountable, unelected, techno-utopian businesspeople and technologists, living mostly in San Francisco, who are willing to risk the lives of you, your children, your grandchildren, and all of future humanity just because they might have a chance to live forever.

    In March, the MIT Technology Review reported that Altman “says he’s emptied his bank account to fund two . . . goals: limitless energy and extended life span.”

    Given all this, you might expect the ethics community to see the safety community as a natural ally in a common struggle to reign in unaccountable tech elites who are unilaterally building risky and harmful products. And, as we saw earlier, many safety advocates have made overtures to the AI ethicists. It’s also rare for people from the x-risk community to publicly attack AI ethics (while the reverse is . . . not true), but the reality is that safety proponents have sometimes been hard to stomach.

    AI ethicists, like the people they advocate for, often report feeling marginalized and cut off from real power, fighting an uphill battle with tech companies who see them as a way to cover their asses rather than as a true priority. Lending credence to this feeling is the gutting of AI ethics teams at many Big Tech companies in recent years (or days). And, in a number of cases, these companies have retaliated against ethics-oriented whistleblowers and labor organizers.

    This doesn’t necessarily imply that these companies are instead seriously prioritizing x-risk. Google DeepMind’s ethics board, which included Larry Page and prominent existential risk researcher Toby Ord, had its first meeting in 2015, but it never had a second one. One Google AI researcher wrote to me that they “don’t talk about long-term risk . . . in the office,” continuing, “Google is more focused on building the tech and on safety in the sense of legality and offensiveness.”

    Software engineer Timnit Gebru co-led Google’s ethical AI team until she was forced out of the company in late 2020 following a dispute over a draft paper — now one of the most famous machine learning publications ever. In the “stochastic parrots” paper, Gebru and her coauthors argue that LLMs damage the environment, amplify social biases, and use statistics to “haphazardly” stitch together language “without any reference to meaning.”

    Gebru, who is no fan of the AI safety community, has called for enhanced whistleblower protections for AI researchers, which are also one of the main recommendations made in GovAI’s white paper. Since Gebru was pushed out of Google, nearly 2,700 staffers have signed a solidaristic letter, but then Googler Geoff Hinton was not one of them. When asked on CNN why he didn’t support a fellow whistleblower, Hinton replied that Gebru’s critiques of AI “were rather different concerns from mine” that “aren’t as existentially serious as the idea of these things getting more intelligent than us and taking over.”

    Raji told me that “a lot of cause for frustration and animosity” between the ethics and safety camps is that “one side has just way more money and power than the other side,” which “allows them to push their agenda way more directly.”

    According to one estimate, the amount of money moving into AI safety start-ups and nonprofits in 2022 quadrupled since 2020, reaching $144 million. It’s difficult to find an equivalent figure for the AI ethics community. However, civil society from either camp is dwarfed by industry spending. In just the first quarter of 2023, OpenSecrets reported roughly $94 million was spent on AI lobbying in the United States. LobbyControl estimated tech firms spent €113 million this year lobbying the EU, and we’ll recall that hundreds of billions of dollars are being invested in the AI industry as we speak.

    One thing that may drive the animosity even more than any perceived difference in power and money is the trend line. Following widely praised books like 2016’s Weapons of Math Destruction, by data scientist Cathy O’Neil, and bombshell discoveries of algorithmic bias, like the 2018 “Gender Shades” paper by Buolamwini and Gebru, the AI ethics perspective had captured the public’s attention and support.

    In 2014, the AI x-risk cause had its own surprise bestseller, philosopher Nick Bostrom’s Superintelligence, which argued that beyond-human AI could lead to extinction and earned praise from figures like Elon Musk and Bill Gates. But Yudkowsky told me that, pre-ChatGPT, outside of certain Silicon Valley circles, seriously entertaining the book’s thesis would make people look at you funny. Early AI safety proponents like Yudkowsky have occupied the strange position of maintaining close ties to wealth and power through Bay Area techies while remaining marginalized in the wider discourse.

    In the post-ChatGPT world, Turing recipients and Nobel laureates are coming out of the AI safety closet and embracing arguments popularized by Yudkowsky, whose best-known publication is a piece of Harry Potter fan fiction totaling more than 660,000 words.

    Perhaps the most shocking portent of this new world was broadcast in November, when the hosts of a New York Times tech podcast, Hard Fork, asked the Federal Trade Commission chair: “What is your p(doom), Lina Khan? What is your probability that AI will kill us all?” EA water cooler talk has gone mainstream. (Khan said she’s “an optimist” and gave a “low” estimate of 15 percent.)

    It would be easy to observe all the open letters and media cycles and think that the majority of AI researchers are mobilizing against existential risk. But when I asked Bengio about how x-risk is perceived today in the machine learning community, he said, “Oh, it’s changed a lot. It used to be, like, 0.1 percent of people paid attention to the question. And maybe now it’s 5 percent.”
    Probabilities

    Like many others concerned about AI x-risk, the renowned philosopher of mind David Chalmers made a probabilistic argument during our conversation: “This is not a situation where you have to be 100 percent certain that we’ll have human-level AI to worry about it. If it’s 5 percent, that’s something we have to worry about.”

    This kind of statistical thinking is popular in the EA community and is a large part of what led its members to focus on AI in the first place. If you defer to expert arguments, you could end up more confused. But if you try to average the expert concern from the handful of surveys, you might end up thinking there’s at least a few-percent chance that AI extinction could happen, which could be enough to make it the most important thing in the world. And if you put any value on all the future generations that could exist, human extinction is categorically worse than survivable catastrophes.

    However, in the AI debate, allegations of arrogance abound. Skeptics like Melanie Mitchell and Oren Etzioni told me there wasn’t evidence to support the x-risk case, while believers like Bengio and Leahy point to surprising capability gains and ask: What if progress doesn’t stop? An academic AI researcher friend has likened the advent of AGI to throwing global economics and politics into a blender.

    Even if, for some reason, AGI can only match and not exceed human intelligence, the prospect of sharing the earth with an almost arbitrarily large number of human-level digital agents is terrifying, especially when they’ll probably be trying to make someone money.

    There are far too many policy ideas about how to reduce existential risk from AI to properly discuss here. But one of the clearer messages coming from the AI safety community is that we should “slow down.” Advocates for such a deceleration hope it would give policymakers and broader society a chance to catch up and actively decide how a potentially transformative technology is developed and deployed.
    International Cooperation

    One of the most common responses to any effort to regulate AI is the “but China!” objection. Altman, for example, told a Senate committee in May that “we want America to lead” and acknowledged that a peril of slowing down is that “China or somebody else makes faster progress.”

    Anderljung wrote to me that this “isn’t a strong enough reason not to regulate AI.”

    In a June Foreign Affairs article, Helen Toner and two political scientists reported that the Chinese AI researchers they interviewed thought Chinese LLMs are at least two to three years behind the American state-of-the-art models. Further, the authors argue that since Chinese AI advances “rely a great deal on reproducing and tweaking research published abroad,” a unilateral slowdown “would likely decelerate” Chinese progress as well. China has also moved faster than any other major country to meaningfully regulate AI, as Anthropic policy chief Jack Clark has observed.

    Yudkowsky says, “It’s not actually in China’s interest to commit suicide along with the rest of humanity.”

    If advanced AI really threatens the whole world, domestic regulation alone won’t cut it. But robust national restrictions could credibly signal to other countries how seriously you take the risks. Prominent AI ethicist Rumman Chowdhury has called for global oversight. Bengio says we “have to do both.”

    Yudkowsky, unsurprisingly, has taken a maximalist position, telling me that “the correct direction looks more like putting all of the AI hardware into a limited number of data centers under international supervision by bodies with a symmetric treaty whereby nobody — including the militaries, governments, China, or the CIA — can do any of the really awful things, including building superintelligences.”

    In a controversial Time op-ed from March, Yudkowsky argued to “shut it all down” by establishing an international moratorium on “new large training runs” backed by the threat of military force. Given Yudkowsky’s strong beliefs that advanced AI would be much more dangerous than any nuclear or biological weapon, this radical stance follows naturally.

    All twenty-eight countries at the recent AI Safety Summit, including the United States and China, signed the Bletchley Declaration, which recognized existing harms from AI and the fact that “substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent.”

    At the summit, the hosting British government commissioned Bengio to lead production of the first “State of the Science” report on the “capabilities and risks of frontier AI,” in a significant step toward a permanent expert body like the Intergovernmental Panel on Climate Change.

    Cooperation between the United States and China will be imperative for meaningful international coordination on AI development. And when it comes to AI, the two countries aren’t exactly on the best terms. With the 2022 CHIPS Act export controls, the United States tried to kneecap China’s AI capabilities, something an industry analyst would have previously considered an “act of war.” As Jacobin reported in May, some x-risk-oriented policy researchers likely played a role in passing the onerous controls. In October, the United States tightened CHIPS Act restrictions to close loopholes.

    However, in an encouraging sign, Biden and Xi Jinping discussed AI safety and a ban on AI in lethal weapons systems in November. A White House press release stated, “The leaders affirmed the need to address the risks of advanced AI systems and improve AI safety through U.S.-China government talks.”

    Lethal autonomous weapons are also an area of relative agreement in the AI debates. In her new book Unmasking AI: My Mission to Protect What Is Human in a World of Machines, Joy Buolamwini advocates for the Stop Killer Robots campaign, echoing a longtime concern of many AI safety proponents. The Future of Life Institute, an x-risk organization, assembled ideological opponents to sign a 2016 open letter calling for a ban on offensive LAWs, including Bengio, Hinton, Sutton, Etzioni, LeCun, Musk, Hawking, and Noam Chomsky.
    A Seat at the Table

    After years of inaction, the world’s governments are finally turning their attention to AI. But by not seriously engaging with what future systems could do, socialists are ceding their seat at the table.

    In no small part because of the types of people who became attracted to AI, many of the earliest serious adopters of the x-risk idea decided to either engage in extremely theoretical research on how to control advanced AI or started AI companies. But for a different type of person, the response to believing that AI could end the world is to try to get people to stop building it.

    Boosters keep saying that AI development is inevitable — and if enough people believe it, it becomes true. But “there is nothing about artificial intelligence that is inevitable,” writes the AI Now Institute. Managing director Myers West echoed this, mentioning that facial recognition technology looked inevitable in 2018 but has since been banned in many places. And as x-risk researcher Katja Grace points out, we shouldn’t feel the need to build every technology simply because we can.

    Additionally, many policymakers are looking at recent AI advances and freaking out. Senator Mitt Romney is “more terrified about AI” than optimistic, and his colleague Chris Murphy says, “The consequences of so many human functions being outsourced to AI is potentially disastrous.” Congresspeople Ted Lieu and Mike Johnson are literally “freaked out” by AI. If certain techies are the only people willing to acknowledge that AI capabilities have dramatically improved and could pose a species-level threat in the future, that’s who policymakers will disproportionately listen to. In May, professor and AI ethicist Kristian Lum tweeted: “There’s one existential risk I’m certain LLMs pose and that’s to the credibility of the field of FAccT [Fairness, Accountability, and Transparency] / Ethical AI if we keep pushing the snake oil narrative about them.”

    Even if the idea of AI-driven extinction strikes you as more fi than sci, there could still be enormous impact in influencing how a transformative technology is developed and what values it represents. Assuming we can get a hypothetical AGI to do what we want raises perhaps the most important question humanity will ever face: What should we want it to want?

    When I asked Chalmers about this, he said, “At some point we recapitulate all the questions of political philosophy: What kind of society do we actually want and actually value?”

    One way to think about the advent of human-level AI is that it would be like creating a new country’s constitution (Anthropic’s “constitutional AI” takes this idea literally, and the company recently experimented with incorporating democratic input into its model’s foundational document). Governments are complex systems that wield enormous power. The foundation upon which they’re established can influence the lives of millions now and in the future. Americans live under the yoke of dead men who were so afraid of the public, they built antidemocratic measures that continue to plague our political system more than two centuries later.

    AI may be more revolutionary than any past innovation. It’s also a uniquely normative technology, given how much we build it to reflect our preferences. As Jack Clark recently mused to Vox, “It’s a real weird thing that this is not a government project.” Chalmers said to me, “Once we suddenly have the tech companies trying to build these goals into AI systems, we have to really trust the tech companies to get these very deep social and political questions right. I’m not sure I do.” He emphasized, “You’re not just in technical reflection on this but in social and political reflection.”
    False Choices

    We may not need to wait to find superintelligent systems that don’t prioritize humanity. Superhuman agents ruthlessly optimize for a reward at the expense of anything else we might care about. The more capable the agent and the more ruthless the optimizer, the more extreme the results.

    Sound familiar? If so, you’re not alone. The AI Objectives Institute (AOI) looks at both capitalism and AI as examples of misaligned optimizers. Cofounded by former public radio show host Brittney Gallagher and “privacy hero” Peter Eckersley shortly before his unexpected death, the research lab examines the space between annihilation and utopia, “a continuation of existing trends of concentration of power in fewer hands — super-charged by advancing AI — rather than a sharp break with the present.” AOI president Deger Turan told me, “Existential risk is failure to coordinate in the face of a risk.” He says that “we need to create bridges between” AI safety and AI ethics.

    One of the more influential ideas in x-risk circles is the unilateralist’s curse, a term for situations in which a lone actor can ruin things for the whole group. For example, if a group of biologists discovers a way to make a disease more deadly, it only takes one to publish it. Over the last few decades, many people have become convinced that AI could wipe out humanity, but only the most ambitious and risk-tolerant of them have started the companies that are now advancing the frontier of AI capabilities, or, as Sam Altman recently put it, pushing the “veil of ignorance back.” As the CEO alludes, we have no way of truly knowing what lies beyond the technological limit.

    Some of us fully understand the risks but plow forward anyway. With the help of top scientists, ExxonMobil had discovered conclusively by 1977 that their product caused global warming. They then lied to the public about it, all while building their oil platforms higher.

    The idea that burning carbon could warm the climate was first hypothesized in the late nineteenth century, but the scientific consensus on climate change took nearly one hundred years to form. The idea that we could permanently lose control to machines is older than digital computing, but it remains far from a scientific consensus. And if recent AI progress continues at pace, we may not have decades to form a consensus before meaningfully acting.

    The debate playing out in the public square may lead you to believe that we have to choose between addressing AI’s immediate harms and its inherently speculative existential risks. And there are certainly trade-offs that require careful consideration.

    But when you look at the material forces at play, a different picture emerges: in one corner are trillion-dollar companies trying to make AI models more powerful and profitable; in another, you find civil society groups trying to make AI reflect values that routinely clash with profit maximization.

    In short, it’s capitalism versus humanity.

    #intelligence_artificielle #politique #disruptoin #

    • J’ai survolé, et il me semble que l’article n’évoque jamais le transhumanisme de Ray Kurzweil, qui est pourtant l’idéologie quasi religieuse particulièrement en vogue en Californie. Et dont Larry Page est connu pour être un des importants mécènes.

      Or dans le texte, ça transparaît en permanence, et même les critiques des développements de l’IA semblent ici largement y adhérer.

  • Mobilisation pour Gaza : un débat interne « dur » et avec « beaucoup d’émotion » jeudi matin à Sciences Po Paris
    https://www.lemonde.fr/societe/article/2024/05/02/mobilisation-pour-gaza-un-debat-interne-dur-et-avec-beaucoup-d-emotion-jeudi

    L’administrateur provisoire a reconnu avoir « pris des positions assez fermes sur certains sujets », en refusant « très clairement la création d’un groupe de travail qui était proposé par certains étudiants pour investiguer [les] relations [de l’école] avec les universités israéliennes ».

    « Après un début où les débats étaient apaisés, la tension est montée à la fin », a témoigné auprès de l’Agence France-Presse Hugo, 22 ans, étudiant en master à Sciences Po, pour qui « la principale information est le refus du directeur de créer un groupe de travail pour réévaluer les partenariats de Sciences Po ».

    Aucune justification n’est apporté pour cette décision, qui n’est en fait que l’application de la position politique de la ministre et donc du gouvernement, qui enterre le principe d’une autonomie de la gouvernance des universités :

    Sur la demande des étudiants d’interroger les « partenariats de l’école avec les universités et organisations soutenant l’Etat d’Israël », la ministre de l’enseignement supérieur, Sylvie Retailleau, a répété, jeudi matin, qu’il était « hors de question que les universités prennent une position institutionnelle en faveur de telle ou telle revendication dans le conflit en cours au Proche-Orient ».

    La ministre a demandé aux présidents d’université de veiller au « maintien de l’ordre » public, en utilisant « l’étendue la plus complète des pouvoirs » dont ils disposent, notamment en matière de sanctions disciplinaires en cas de troubles ou de recours aux forces de l’ordre, lors d’une intervention en visioconférence au conseil d’administration de France Universités.

    #Gaza #génocide_plausible_en_cours #aveuglement # et #complicité

    • #Sciences_Po annonce la fermeture vendredi de ses principaux locaux à Paris, après un débat interne qui a débouché sur une nouvelle mobilisation (Publié aujourd’hui à 16h13, modifié à 23h01 [-] republication de l’article du 02 mai 2024 à 11h42)
      https://www.lemonde.fr/societe/article/2024/05/02/mobilisation-pour-gaza-un-debat-interne-dur-et-avec-beaucoup-d-emotion-jeudi

      (...) Sylvie Retailleau, a répété, jeudi matin, qu’il était « hors de question que les universités prennent une position institutionnelle en faveur de telle ou telle revendication dans le conflit en cours au Proche-Orient ».
      La ministre a demandé aux présidents d’université de veiller au « maintien de l’ordre » public, en utilisant « l’étendue la plus complète des pouvoirs » dont ils disposent, notamment en matière de sanctions disciplinaires en cas de troubles ou de recours aux forces de l’ordre, lors d’une intervention en visioconférence au conseil d’administration de France Universités.

      #Israël #France #élites #politique

    • « La fermeté est et restera totale », a fait savoir Matignon à l’Agence France-Presse (AFP). « S’agissant de la situation dans les établissements, certaines ont pu être réglées par le dialogue. Pour d’autres, des réquisitions par les présidents d’université ont été faites, et les forces de l’ordre sont intervenues immédiatement. Cette fermeté paie : 23 sites perturbés ont été évacués hier », a affirmé la même source à l’AFP, ajoutant, pour Sciences Po Paris, que Gabriel Attal avait « demandé l’intervention dès la réquisition de l’administrateur provisoire ».

      https://www.lemonde.fr/societe/article/2024/05/03/les-forces-de-l-ordre-interviennent-a-sciences-po-paris-et-evacuent-plusieur

      #occupations #police

    • Heureusement, dans son édito du jour, Le Monde jouait à fond son rôle usuel de chien de garde, justifiant à l’avance, avec force sophismes débiles, que Darmanin envoie ses Robocops contre les étudiants qui manifestent contre un génocide.

      Israël-Gaza : une contestation légitime, des dérives inacceptables
      https://www.lemonde.fr/idees/article/2024/05/03/israel-gaza-une-contestation-legitime-des-derives-inacceptables_6231324_3232

      A première vue, ces mouvements évoquent les révoltes estudiantines des années 1960-1970 contre la guerre américaine au Vietnam ou celles qui, un peu plus tard, dénonçaient le régime d’apartheid d’Afrique du Sud. Le parallèle s’arrête cependant assez vite. Les Etats-Unis n’étaient pas visés à domicile par un terrorisme vietnamien, là où Israël riposte aux massacres du 7 octobre 2023. Quant à Yahya Sinouar, le chef du Hamas à Gaza, il est difficilement comparable à Nelson Mandela.

      […]

      Les libertés de réunion et d’expression doivent être défendues, non ces débordements intolérables. Que des étudiants juifs, parce qu’ils s’identifient comme tels, puissent se sentir mal à l’aise, voire en danger, dans une université française ou américaine est inacceptable, quelles que soient leurs positions – en réalité très diverses – sur le conflit.

      […]

      En France, Jean-Luc Mélenchon cherche à exploiter la faiblesse des réactions à la tragédie de Gaza. Mais, en soutenant les appels au « soulèvement » et en attisant la colère des étudiants, le leader de La France insoumise jette de l’huile sur une question inflammable dans un pays qui réunit d’importantes communautés juive et arabe, et fait douter de son sens des responsabilités.

  • José Ortega y Gasset, The Revolt of the masses
    https://ia803004.us.archive.org/28/items/TheRevoltOfTheMasses/The%20Revolt%20of%20the%20Masses.pdf

    Preface

    The Revolt of the Masses (Spanish: La rebelión de las masas, pronounced [la reβeˈljon de laz ˈmasas]) is a book by José Ortega y Gasset. It was first published as a series of articles in the newspaper El Sol in 1929, and as a book in 1930; the English translation, first published two years later, was authorized by Ortega. While the published version notes that the translator requested to remain anonymous, more recent editions also record that its US copyright was renewed in 1960 by a Teresa Carey, and the US Copyright Office’s published list of US copyright renewals for January 1960 gives the translator as J. R. Carey. A second translation was published in 1985 by the University of Notre Dame Press in association with W.W. Norton and Co. This translation was completed by Anthony Kerrigan (translator) and Kenneth Moore (editor). An introduction was written by novelist Saul Bellow.

    In this work, Ortega traces the genesis of the “mass-man” and analyzes his constitution, en route to describing the rise to power and action of the masses in society. Ortega is throughout quite critical of both the masses and the mass-men of which they are made up, contrasting “noble life and common life” and excoriating the barbarism and primitivism he sees in the mass-man. He does not, however, refer to specific social classes, as has been so commonly misunderstood in the English-speaking world. Ortega states that the mass-man could be from any social background, but his specific target is the bourgeois educated man, the señorito satisfecho (satisfied young man or Mr. Satisfied), the specialist who believes he has it all and extends the command he has of his subject to others, contemptuous of his ignorance in all of them. Ortega’s summary of what he attempted in the book exemplifies this quite well, while simultaneously providing the author’s own views on his work: “In this essay an attempt has been made to sketch a certain type of European, mainly by analyzing his behaviour as regards the very civilization into which he was born”. This had to be done because that individual "does not represent a new civilisation struggling with a previous one, but a mere negation ...

    There is one fact which, whether for good or ill, is of utmost importance in the public life of Europe at the present moment.

    This fact is the accession of the masses to complete social power. As the masses, by definition, neither should nor can direct their own personal existence, and still less rule society in general, this fact means that actually Europe is suffering from the greatest crisis that can afflict peoples, nations, and civilization. Such a crisis has occurred more than once in history. Its characteristics and its consequences are well known. So also is its name. It is called the rebellion of the masses. In order to understand this formidable fact, it is important from the start to avoid giving to the words “rebellion,” “masses,” and “social power” a meaning exclusively or primarily political. Public life is not solely political, but equally, and even primarily, intellectual, moral, economic, religious; it comprises all our collective habits, including our fashions both of dress and of amusement.

    Perhaps the best line of approach to this historical phenomenon may be found by turning our attention to a visual experience, stressing one aspect of our epoch which is plain to our very eyes.

    This fact is quite simple to enunciate, though not so to analyze. I shall call it the fact of agglomeration, of “plenitude.” Towns are full of people, houses full of tenants, hotels full of guests, trains full of travelers, cafes full of customers, parks full of promenaders, consulting-rooms of famous doctors fun of patients, theatres full of spectators, and beaches full of bathers. What previously was, in general, no problem, now begins to be an everyday one, namely, to find room.

    That is all. Can there be any fact simpler, more patent, more constant in actual life? Let us now pierce the plain surface of this observation and we shall be surprised to see how there wells forth an unexpected spring in which the white light of day, of our actual day, is broken up into its rich chromatic content. What is it that we see, and the sight of which causes us so much surprise? We see the multitude, as such, in possession of the places and the instruments created by civilization. The slightest reflection will then make us surprised at our own surprise.

    #philosophie #politique #conservatisme

  • Migrants africains à Mayotte : l’Etat face à la pression des collectifs de citoyens
    https://www.lemonde.fr/afrique/article/2024/04/30/migrants-africains-a-mayotte-l-etat-face-a-la-pression-des-collectifs-de-cit

    Migrants africains à Mayotte : l’Etat face à la pression des collectifs de citoyens
    Par Jérôme Talpin (Mamoudzou, Mayotte, envoyé spécial)
    « Ils ont tout jeté. Ils ont même pris l’eau, la nourriture et mes médicaments. C’est le cauchemar. » De retour d’une consultation à la Croix-Rouge, Régine K., 43 ans, réfugiée congolaise arrivée à Mayotte sur un kwassa-kwassa – des embarcations légères – en août 2022, découvre, dans un mélange de stupéfaction et de révolte, qu’il « n’y a plus rien » sur le bout de trottoir qu’elle occupait sur le boulevard situé en face du stade de Cavani, un quartier au sud de Mamoudzou, le chef-lieu du département. Ses valises souffreteuses, les deux nattes sur lesquelles elle dormait par terre, son petit braséro ont été embarqués dans un camion-benne. Même sort pour les quelque 500 migrants africains, principalement originaires de Somalie et de la région des Grands Lacs – République démocratique du Congo (RDC), Rwanda et Burundi notamment.
    Tôt, vendredi 26 avril, la préfecture de Mayotte a lancé avec les forces de l’ordre une opération pour les expulser. Ces demandeurs d’asile ou réfugiés se sont installés là après le démantèlement du camp improvisé dans l’enceinte sportive, le 22 mars. Sans eau, dans des conditions d’hygiène exécrables, entassant leur linge sur des grillages, dormant sur un matelas en mousse pour les plus chanceux. Un bidonville à ciel ouvert écrasé par le soleil.
    « La situation n’était plus tenable pour les habitants du quartier, les commerces et les restaurants, et pas humaine pour ces gens qui vivent à même le sol avec des enfants en bas âge, affirme le maire de Mamoudzou, Ambdilwahedou Soumaïla, qui a pris un arrêté d’interdiction d’occupation de la voie publique. Il y a aussi des maladies qui circulent comme le choléra et les problèmes de sécurité ». « Il fallait redonner ce quartier aux habitants de Cavani, a déclaré sur place le préfet François-Xavier Bieuville. Je n’ai pas d’état d’âme. » Fin décembre 2023, la multiplication des petites cabanes bricolées par les migrants, avec du bois de récupération et des bâches bleues, autour du stade avait cristallisé toutes les colères des collectifs de citoyens dénonçant le résultat de l’immigration clandestine incontrôlée. Le point de départ du blocus de l’île de fin janvier à début mars. Leur démantèlement n’aura fait que provisoirement baisser la tension à Mayotte.
    Alors que la ministre déléguée aux outre-mer, Marie Guévenoux, doit revenir dans l’île début mai, certains collectifs n’excluent pas de nouvelles actions. (...)
    En déplacement dans l’île les 20 et 21 avril, Marine Le Pen a fait de l’installation des migrants africains dans la rue le symbole du « chaos » qui « menace Mayotte d’un danger de mort », et de l’incapacité du gouvernement à « faire preuve d’autorité ». Dans les nuits du dimanche et lundi qui ont suivi – sans qu’un lien de cause à effet puisse être établi –, les abris de fortune de plusieurs migrants montés autour du bâtiment de l’association Solidarité Mayotte, qui a accompagné 2 896 demandeurs d’asile en 2023, ont été incendiés.
    Des bureaux de l’association, distante d’un kilomètre du stade, ont également été endommagés par les flammes. Un nouvel épisode de tensions générées par « les jeunes délinquants » habitant le quartier composé aussi de bidonvilles, se plaignent les réfugiés en parlant de caillassages, de vols de téléphone, mais surtout de l’accès au bassin Massimoni, à côté de l’association, où ils vont puiser de l’eau et se laver sous les invectives du type : « Africains, vous n’êtes pas chez vous ! » (...) Pour les migrants africains, l’opération des forces de l’ordre a été vécue comme une autre forme d’agression. Sans solution, beaucoup d’entre eux restent sur les trottoirs. « Je n’ai nulle part où aller », se désole Régine K., mère de six enfants. Tout comme ces jeunes Somaliens, regroupés pour « rester solidaires », qui racontent comment leur pays est en proie à la guerre civile, aux gangs et aux trafics criminels, à l’intégrisme.
    (...° Parlant du manque d’hygiène, les migrants de Cavani « se débrouillent », disent-ils pudiquement, dans une canalisation voisine. « Il y a beaucoup de gens malades, notamment les femmes, ajoute Abdoullahi. Cette vie est bien plus difficile pour elles. » « Le plus compliqué, c’est de ne pas avoir d’intimité, de ne pouvoir dormir totalement la nuit, protégeant le peu de nos affaires personnelles et vivre ainsi, dehors, dans le bruit », décrit, de son côté, une jeune Somalienne, arrivée seule à Mayotte, il y a près de trois mois, parce qu’à Mogadiscio « la violence est partout et a tué [son] père ».
    Avant d’avoir tenté de faire partir de la rue ces migrants, la préfecture a mené, mercredi 24 avril, une « opération de recensement ». « Pour savoir qui ils sont, observe le préfet de Mayotte. Nous allons procéder à des reconduites à la frontière, à des relogements pour les femmes et les enfants. Cela prendra du temps, il faut le reconnaître. » Face à une partie de l’opinion publique mahoraise exigeant des mesures fortes, l’Etat assure que des solutions ont été trouvées pour plus de 1 000 migrants installés dans le stade, dont 550 réfugiés acheminés dans l’Hexagone. De nouveaux départs ne sont toutefois pas envisagés. En raison de la polémique provoquée par l’installation de 300 migrants dans un « château des Yvelines » et le risque, selon M. Bieuville, de « créer les conditions d’un appel d’air ».Prônée par plusieurs associations, la construction d’un camp sécurisé est farouchement rejetée par les élus locaux pour les mêmes motifs.(...) »

    #Covid-19#migrant#migration#france#mayotte#afrique#migrationirreguliere#crise#politique#vulnerabilite#sante

  • La tension monte entre l’Irlande et le Royaume-Uni au sujet de la migration
    https://www.lemonde.fr/international/article/2024/04/30/la-tension-monte-entre-dublin-et-londres-au-sujet-de-la-migration_6230822_32

    La tension monte entre l’Irlande et le Royaume-Uni au sujet de la migration
    Par Cécile Ducourtieux (Londres, correspondante)
    Les relations entre Londres et Dublin se sont brutalement tendues ces derniers jours, l’Irlande reprochant au cabinet du premier ministre britannique, Rishi Sunak, les effets collatéraux supposés de l’Accord Royaume-Uni - Rwanda, consistant à expulser dans ce pays d’Afrique de l’Est des demandeurs d’asile arrivés au Royaume-Uni. Mardi 30 avril, le gouvernement irlandais de Simon Harris a approuvé un projet de loi d’urgence visant à faciliter le renvoi au Royaume-Uni des demandeurs d’asile arrivés en République d’Irlande depuis l’Irlande du Nord (toujours province britannique).
    La tension est telle entre les deux pays que les autorités irlandaises évoquent la nécessité de surveiller les presque 500 kilomètres de frontière entre la République d’Irlande et l’Irlande du Nord alors que Dublin a bataillé durant toute la négociation du Brexit, entre 2016 et 2019, pour que cette frontière reste totalement virtuelle.
    Tout a commencé par un chiffre avancé par Helen McEntee, la ministre de la justice irlandaise, lors d’une audition de la commission de la justice du Parlement irlandais le 23 avril. Quelque « 80 % des demandeurs d’asile » arrivés en Irlande viennent du Royaume-Uni via Belfast, en profitant de la Common Travel Area (CTA), un accord de libre circulation spécifique entre l’Irlande et le Royaume-Uni, a assuré la ministre, précisant que 5 000 personnes ont demandé l’asile dans la République depuis début 2024, un record.
    Au lieu de déposer une demande d’asile en arrivant dans un aéroport ou un port irlandais depuis un autre pays européen, africain ou asiatique, ces personnes se présentent au Bureau de la protection internationale (International Protection Office, IPO), au cœur de Dublin. Les logements d’urgence pour les héberger sont tellement saturés que des dizaines d’entre elles dorment dans des tentes dressées dans les rues adjacentes à cet organisme.
    Rishi Sunak a repris la balle au bond, se félicitant du chiffre avancé par la ministre McEntee, y voyant la preuve que l’Accord R-U - Rwanda a bien l’« effet dissuasif » escompté – les personnes arrivant en Irlande via Belfast fuiraient la perspective d’être expulsées par les autorités britanniques au Rwanda. Le dirigeant a, le 25 avril, fait adopter par Westminster la loi Safety of Rwanda censée rendre enfin opérationnel l’accord très controversé avec Kigali, toujours virtuel deux ans après sa signature.
    La réponse de Dublin a été rapide et acide : « Il n’est pas question que l’Irlande offre une échappatoire aux défis migratoires d’un autre pays », a réagi, dimanche, Simon Harris, le chef de file du parti centriste Fine Gael et taoiseach (« premier ministre » irlandais) depuis un mois. « Nous n’allons pas commencer à accepter des renvois de [demandeurs d’asile] de l’Union européenne [UE] via l’Irlande quand l’UE refuse les renvois en France [de demandeurs d’asile arrivés au Royaume-Uni en small boats] », a répliqué Rishi Sunak le lendemain, ajoutant n’être « pas intéressé » par un accord de renvoi des migrants avec Dublin.
    La question migratoire entre Londres et Dublin est plus subtile qu’il n’y paraît. Selon le règlement européen dit « de Dublin », les personnes demandant l’asile doivent déposer leur dossier dans le premier pays de l’UE où elles sont rentrées – sauf exceptions, regroupements familiaux, etc. Un pays de l’UE peut théoriquement renvoyer dans un autre pays de l’UE un demandeur d’asile qui y aurait déjà déposé un dossier. Depuis le Brexit, n’étant plus dans l’Union européenne, le Royaume-Uni ne peut plus appliquer le règlement de Dublin.
    Cependant, les gouvernements irlandais et britannique sont convenus, en 2020, de reconduire un accord reproduisant les termes du règlement de Dublin, mais appliqué à leurs deux seuls pays : un demandeur d’asile arrivé du Royaume-Uni en Irlande peut y être reconduit. Mais jusqu’à présent, il n’a quasiment pas été mis en œuvre à cause de la pandémie de Covid-19, a expliqué la ministre de la justice, Helen McEntee, et, depuis mars, d’une décision de la Haute Cour irlandaise. Cette dernière a jugé que le Royaume-Uni n’était « pas sûr » au regard de l’asile, parce que les demandeurs d’asile refoulés risquaient d’y être expulsés vers le Rwanda.
    La législation d’urgence proposée par Mme McEntee consiste à contourner cette décision de justice en assurant que le voisin britannique est un pays « sûr ». Le parallèle entre cette démarche irlandaise et celle du gouvernement britannique est frappant. Le cabinet Sunak a proposé sa législation Safety of Rwanda pour contourner une décision de la Cour suprême britannique, fin 2023, qui concluait que le Rwanda n’était pas sûr au regard de l’asile.
    Ce coup de chauffe entre Dublin et Londres illustre à quel point les questions migratoires sont mondiales, des politiques nationales ayant rapidement des implications régionales. Les frictions entre les deux pays s’expliquent aussi par leurs contextes politiques respectifs. Rishi Sunak, le chef de file des conservateurs, redoute de mauvais résultats aux élections locales du 2 mai, dernier test électoral avant les élections générales, qui auront probablement lieu cet automne. Alors que les tories accusent 20 points de retard dans les sondages sur les travaillistes, l’Accord R-U - Rwanda est l’une des rares politiques du dirigeant qui, si elle produit l’effet dissuasif escompté, peut jouer dans les urnes en faveur de la droite britannique.
    En Irlande, Simon Harris a remplacé Leo Varadkar, démissionnaire, début avril. A 37 ans, cet ex-ministre de la santé n’a que quelques mois pour faire mentir les sondages, qui placent le parti proréunification Sinn Fein en tête, alors que les élections parlementaires irlandaises doivent se tenir au plus tard en février 2025. La migration est par ailleurs devenue un sujet de préoccupation important pour les Irlandais, la coalition de centre droit Fine Gael-Fianna Fail ayant du mal à répondre politiquement et matériellement à l’afflux de demandes d’asile depuis deux ans, dans un pays qui se considérait jusqu’à présent davantage comme une terre d’émigration que d’immigration.

    #Covid-19#migrant#migration#irlande#royaume-uni#immigration#rwanda#brexit#asile#reglementdublin#sante#payssur#politiquemigratoire

  • Mastodon : l’entreprise allemande d’Eugen Rochko devient à but lucratif
    https://next.ink/brief_article/mastodon-lentreprise-allemande-deugen-rochko-devient-a-but-lucratif

    Dans son billet, Eugen Rochko explique que le bureau des impôts allemand a refusé de renouveler, « sans explication ni avertissement préalable », le statut non lucratif de son organisation.

    Le créateur du logiciel de réseau social explique que les financements de son organisation viennent essentiellement de Patreon, qui ne sont pas considérés comme des dons : « en fait, nous n’avons pas eu à délivrer un seul reçu de don depuis 2021 ».

    • Bah, les impôts allemands enlèvent le statut d’intérêt public tout ce qu’ils n’aiment ou ne comprennent pas. Par exemple il est arrivé la même chose la plus ancienne organisation antifasciste, l’association vvn-bda ( Bund der Antifaschistinnen und Antifaschisten , l’ancien Bund der Verfolgten des Naziregimes ) .

      C’est du n’importe quoi et dépend entièrement des décisions arbitraires de fonctionnaires régionaux contre lesquelles il faut régulièrement engager les voies de recours en justice ...

      Les créateurs de Mastodon ont sans doute jugé que ce n’est pas une situation assez stable pour eux et ont préféré changer de pays leur asso. Il y a une vérité éternelle qui dit « si tu veux faires quelque chose d’intéressant dans l’internet, ne le fais pas en allemand et pas en Allemagne ». #seenthis n’aurait pas survécu une seule année en Allemagne ;-)

      Gemeinnützigkeit wieder anerkannt ! – Kreisvereinigung Nürnberg/Fürth
      https://nuernberg.vvn-bda.de/gemeinnuetzigkeit-ab-2019-wieder-anerkannt

      25. März 2021

      Nachtrag 27.04.2021: Die Aberkennung der Gemeinnützigkeit wurde nun vollständig zurückgenommen! Ein Grund zum Feiern: Antifaschismus bleibt gemeinnützig!

      Der vielen Solidarität und dem lautstarken Protest ist es zu verdanken, dass wir positive Neuigkeiten zu vermelden haben – die VVN-BdA ist ab 2019 wieder gemeinnützig!

      Am 24. März 2021 erreichte uns die frohe Kunde über eine Mitteilung des Finanzamtes. Doch der Kampf ist noch nicht ausgestanden, wir warten immer noch auf die Anerkennung der Gemeinnützigkeit für die Jahre 2016-18.

      Wir halten euch auf dem Laufenden.

      Viele Grüße aus dem Bundesbüro der VVN-BdA

      Na endlich – kann man nur feststellen.

      Auch als Kreisvereinigung VVN-BdA Nürnberg bedanken wir uns für die großartige Solidarität und Unterstützung unserer Organisation – Z.B. auch durch die Mitgliedschaft und Stärkung der VVN-BdA. Denn vor allem das brachte nach meiner Überzeugung die Berliner Finanzzuständigen zum Einlenken.

      Begründet wurde diese Wiederherstellung der Gemeinnützigkeit u.a. damit, sie könne nun „nach eingehender Prüfung“ gewährt werden, da die Bundesvereinigung der VVN-BdA im Jahr 2019 im Verfassungsschutzbericht nicht mehr als „extremistische Organisation“ eingestuft sei.

      Das ist genauso falsch, wie die vorherige (gegenteilige) Behauptung: Weil die VVB-BdA im Bayer.- VS-Bericht als extremistisch bezeichnet wird, deshalb wurde ihr die Gemeinnützigkeit in Berlin entzogen ….

      Denn auch im Bayer. „Verfassungsschutzbericht 2019“ steht immer noch – und das seit wenigstens 10 Jahren:

      „Die VVN-BdA ist die bundesweit größte linksextremistisch beeinflusste Organisation im Bereich des Antifaschismus.“ (Anbei auch der letzte VS-Bericht 2019. Die VVN-BdA siehe S. 260).

      Unsere Aufgabe in Bayern wird es deshalb weiterhin sein, gemeinsam dafür zu sorgen, dass diese vom Bayer. Geheimdienst (VS) verbreitete Diskriminierung unserer Organisation und damit des Antifaschismus insgesamt endlich verschwindet. Packen wir’s an.

      Zuerst aber ein Glas auf die Solidarität und unseren ersten Erfolg.

      Georg

      #Allemagne #impôts #associations #politique #internet #censure

  • Critiquer la politique d’un Etat est un droit fondamental et ne saurait constituer une apologie du terrorisme

    Alors qu’Emmanuel Macron a remis le droit international au cœur de la question israélo-palestinienne, des citoyennes et citoyens sont poursuivis en justice lorsqu’ils s’y réfèrent dans des tracts, s’alarme un collectif de plusieurs personnalités, dont Patrick Baudouin, président de la LDH

    Certains s’en féliciteront, tout en soupirant à bas bruit, « enfin ». D’autres peut-être s’en désoleront. Mais toutes les femmes et tous les hommes de bonne volonté ne penseront qu’une seule chose : peut-être que les massacres vont s’arrêter, peut-être que finalement l’humanité pourrait l’emporter dans toute cette horreur interminable.

    https://entreleslignesentrelesmots.wordpress.com/2024/04/30/critiquer-la-politique-dun-etat-est-un-droit-f

    #politique

  • Contre une démocratie bâillonnée, défendons les libertés publiques
    + LDH : Halte au dévoiement du droit pénal pour bâillonner les voix dissidentes
    + Appel à mobilisation – Pour la liberté d’opinion et contre la censure !

    Contre le musellement de voix engagées sur le conflit israélo-palestinien et face à la gravité des atteintes aux libertés publiques, un large collectif de personnalités, syndicats et d’associations (où l’on retrouve le Syndicat de la Magistrature, la LDH, le Gisti, la CGT ou encore le Planning familial) dénonce « une limitation inacceptable du pluralisme démocratique ».

    https://entreleslignesentrelesmots.wordpress.com/2024/04/27/contre-une-democratie-baillonnee-defendons-les

    #france #politique

  • Conflit de classes inversé, l’épine dans le pied des #Luttes_sociales
    https://ricochets.cc/Conflit-de-classes-inverse-l-epine-dans-le-pied-des-luttes-sociales-7493.h

    Hiver 2023, mouvement social contre la réforme des retraites. Fonctionnaires, salarié·e·s d’entreprises publiques, étudiant·e·s sont en grève et dans la rue. Caissier·ères, ouvrier·ères du bâtiment, femmes de ménage, livreurs deliveroo et autres salarié·e·s de la « deuxième ligne » sont au taf. Les classes moyennes peuvent-elles faire seules la révolution ? #Les_Articles

    / Luttes sociales

    https://rebellyon.info/Conflit-de-classes-inverse-l-epine-dans-25893

    • De toute évidence, l’ensemble de la « gauche » a fait fausse route ces 40 ou 50 dernières années en s’éloignant de sa base historique, les milieux ouvriers, et en les laissant basculer à la droite de la droite. Au point qu’aujourd’hui, le conflit de classes s’est en quelque sorte inversé : tandis qu’une majorité de celles et ceux qui se trouvent au bas de l’échelle sociale adhèrent aux idées de droite favorables aux classes supérieures, ce sont des personnes plutôt bien placées dans la hiérarchie sociale qui constituent les forces vives de la gauche égalitariste. Avec pour corollaire le fait que, comble des combles pour les secondes, elles sont souvent assimilées par les premiers au camp macroniste, c’est-à-dire à des « bobos » éduqués, aisés financièrement, cultivés, qui ne connaissent ni leurs modes de vie ni leurs problèmes, et les méprisent.

      […]

      Ce qui suppose de questionner nos modes d’organisation relevant d’habitus ou de codes sociaux excluants (omniprésence de l’écrit, réunionnite, etc.) ainsi que notre idéalisme et notre dogmatisme, qui sont des postures intellectuelles marquées socialement, pour renouer avec le pragmatisme dans les luttes (les plus précaires ont besoin de manger et de se loger, très concrètement)

      #classes_sociales #vote #politique #extrême_droite #gauche

  • Tribune : Exiger la justice pour Amara, c’est refuser tout un système fondé sur l’exploitation et l’oppression, c’est lutter pour le respect et l’égalité

    Le 16 juin 2023, Amara Dioumassy a perdu la vie sur le chantier du bassin d’Austerlitz destiné à rendre la Seine plus propre pour les JO 2024.

    Qui était Amara ?
    Amara est né à Kayes au Mali en 1972, dans la communauté Soninke. Alors que ce pays du Sahel, doté d’une histoire séculaire, de richesses culturelles et naturelles exceptionnelles, subit la prédation de la Françafrique qui surexploite ses sols et ses populations, les habitants du Mali comptent parmi les plus pauvres au monde.

    https://entreleslignesentrelesmots.wordpress.com/2024/04/26/exiger-la-justice-pour-amara-cest-refuser-tout

    #france #politique

  • #Rien_à_déclarer – le podcast anti-répression de Radio Parleur
    https://radioparleur.net/2024/04/26/rien-a-declarer-podcast-anti-repression-radio-parleur

    Perquisitions au domicile, interpellations, gardes à vue abusives, procès… En 2023, la #répression des mouvements sociaux, féministes, antiracistes et écologistes a passé un cap, et criminalise quasi-systématiquement les citoyen·nes, activistes et militant·es engagé·es à gauche. Rien à déclarer est un podcast qui explore les mille et une voies de la criminalisation des luttes et des […] L’article Rien à déclarer – le podcast anti-répression de Radio Parleur est apparu en premier sur Radio Parleur.

    #L'actu_des_luttes #Une_du_site #Politique #violences_policières

  • L’Actu des Oublié.e.s • S IV • EP14 • ¡ No a la Mineria ! / Equateur
    https://ricochets.cc/L-Actu-des-Oublie-e-s-o-S-IV-o-EP14-o-No-a-la-Mineria-Equateur-7494.html

    Cette semaine, cap en Équateur où l’offensive de l’industrie minière, en collusion sévère avec le pouvoir, rencontre une résistance acharnée et organisée à l’échelle nationale — Avec Luis Corral, du Front contre l’Industrie Minière #Les_Articles

    / #Politique,_divers, #Audio, #Ecologie, #International

    https://audioblog.arteradio.com/blog/157476/podcast/227080/saison-iv-e-p14-no-a-la-mineria-equateur#

  • Opinion | How ‘The Squad’ and Like-Minded Progressives Have Changed Their Party - The New York Times
    https://www.nytimes.com/2024/04/23/opinion/progressives-democratic-party-aoc.html

    Ah si Jean-Luc Mélenchon pouvait s’inspirer d’Alexandria Ocasio-Cortez...

    When the far-left politicians Alexandria Ocasio-Cortez and Ayanna Pressley were first elected to Congress roughly half a decade ago, many moderate Democrats saw their unapologetically progressive vision for America as an albatross around the neck of the Democratic Party.

    That certainly seemed to be the view of Democratic leaders, who seemed intent on making “the squad,” as the progressive caucus is known, a group of permanent outsiders.

    “All these people have their public whatever and their Twitter world,” Nancy Pelosi, then speaker of the House, told Maureen Dowd in 2019. “But they didn’t have any following,” Ms. Pelosi said of the squad. “They’re four people and that’s how many votes they got.” At the time, Ms. Pelosi was bristling from criticism the progressive members had levied against her over her support for a funding bill the progressives said failed to protect migrant children, a major issue during the Trump presidency.

    Five years later, Ms. Pelosi has stepped down from the leadership position she long held. The House progressive caucus has grown to nearly 100 members and has become a significant force within the party. The progressives have outlasted not only Ms. Pelosi, but also moderate Democrats who once led the party, like Representative Steny Hoyer, who has also bowed out of his role leading House Democrats. Representative Hakeem Jeffries of New York, the new minority leader, isn’t a member of the progressive caucus. (He left the caucus when he became leader of the House Democrats.) But he has been far friendlier to the group’s members and their agenda than his predecessor, Ms. Pelosi, a nod to the blossoming role of progressive politics within the Democratic Party and its voter base.

    And in recent months, the insurgent group of unapologetic leftists has gained even more sway within the Democratic Party. Some of this is clearly a reaction to the extremism of Trumpism and far-right House Republicans. But the progressives have gained power in Washington amid rising anger over the U.S. role in Gaza.

    For the first time in decades, possibly since the anti-Vietnam War and environmental movements, the left wing has led the center of the Democratic Party in a new political direction on a major issue — one sharply critical of the Israeli government, impatient with the leadership of Prime Minister Benjamin Netanyahu and increasingly willing to use American leverage to curb Israel’s military plans.

    #Politique #USA #Alexandria_Ocasio_Cortez

  • Jusqu’où ira la guerre des mots ? - Regards.fr
    https://regards.fr/jusquou-ira-la-guerre-des-mots

    par Roger Martelli

    Il faut en revenir aux faits et à la simple justice. Ce qui importe n’est pas de savoir s’il faut employer le terme de génocide pour qualifier l’action de l’armée israélienne à Gaza : l’urgence est à l’arrêt du massacre des civils. Ce qui compte à court terme n’est pas de savoir si le sionisme est par nature voué à l’expansion impérialiste : c’est de mettre fin à une colonisation qui, depuis 1967, est source d’inépuisables violences et contrevient ouvertement aux stipulations du droit international.

    Ce qui compte n’est pas de savoir ce que l’on pense de la manière dont il faut défendre la cause palestinienne : c’est savoir s’il est tolérable que le soutien à cette cause soit a priori suspect d’encourager le terrorisme. Ce qui compte n’est pas de savoir si le maccarthysme était du fascisme, si nous sommes d’ores et déjà dans une France « fasciste » ou « préfasciste » : ce qui compte est de dire que la spirale autoritaire est injuste, absurde et dangereuse, au moment précisément où l’extrême droite perce à l’échelle du continent européen et au-delà.

    Mettre un coup d’arrêt aux désastres réels, à commencer par ceux qui s’étendent au Proche et au Moyen-Orient ; mettre un terme chez nous aux tentations autoritaires et répressives inutiles… Ce n’est pas l’affaire d’une organisation, d’une partie de la gauche, ni même de la seule gauche : c’est affaire de sursaut démocratique et éthique.

    #Politique #Guerre_des_mots

    • Ce sursaut peut être majoritaire ; tout ce qui freine la dynamique vers cette majorité devrait donc être banni. Il sera bien temps, par la suite, d’en tirer toutes les leçons politiques.

  • Jusqu’à quand l’escroquerie de la « flamme olympique » ?

    « La flamme olympique, une merveilleuse idée du Dr. Goebbels » !

    Débordant de fierté nationale, les médias grecs, secondés par les autorités grandiloquentes du pays, ne manquent pas l’occasion de présenter cette véritable reconstitution d’une cérémonie nazie, à savoir la soi-disant « cérémonie d’allumage de la flamme olympique » à Olympie… comme preuve de la grandeur et de la continuité historique de la nation grecque. Et avec elle, de présenter aussi ses accessoires, comme par exemple « la première torche olympique » qui, comme nous le lisons, a été remise au maire de Marathon, « lors d’une magnifique cérémonie qui comprenait une course aux flambeaux symbolique depuis la Ligne de Départ Historique de Marathon jusqu’au musée de la Course de Marathon ».

    https://entreleslignesentrelesmots.wordpress.com/2024/04/23/jusqua-quand-lescroquerie-de-la-flamme-olympiq

    #politique #histoire #jo

  • Au Royaume-Uni, Rishi Sunak fait plier la Chambre des lords et obtient la mise en œuvre de la loi sur l’expulsion des demandeurs d’asile au Rwanda
    https://www.lemonde.fr/international/article/2024/04/23/au-royaume-uni-rishi-sunak-fait-plier-la-chambre-des-lords-et-obtient-la-mis

    Au Royaume-Uni, Rishi Sunak fait plier la Chambre des lords et obtient la mise en œuvre de la loi sur l’expulsion des demandeurs d’asile au Rwanda
    Par Cécile Ducourtieux (Londres, correspondante)
    Il aura fallu quatre mois au gouvernement britannique de Rishi Sunak pour faire adopter son projet de loi « Safety of Rwanda » (« sûreté du Rwanda »), notamment pour forcer la résistance des Lords au Parlement de Westminster. Ces derniers ont fini par lâcher prise juste après minuit, mardi 23 avril, permettant dans la foulée l’adoption par le Parlement de ce texte très contesté. Il déclare que le Rwanda est un pays sûr au regard de l’asile et permet ainsi la mise en œuvre, longtemps retardée, de l’accord de sous-traitance de demandeurs d’asile signé entre Londres et Kigali en avril 2022.
    Les avions pour le Rwanda pourront décoller « d’ici dix à douze semaines », en juillet, a promis Rishi Sunak lors d’une conférence à Downing Street, lundi, en amont des ultimes débats parlementaires. Des vols sur des compagnies aériennes commerciales ont été réservés, ainsi qu’un aéroport de départ, a assuré le premier ministre, depuis le pupitre barré d’un « stop the boats » (« stoppons les bateaux ») que sort Downing Street à chaque prise de parole sur les sujets migratoires. Considéré comme une priorité, l’accord Rwanda est un des derniers espoirs du dirigeant conservateur pour tenter de rattraper les travaillistes, en avance d’environ 20 points dans les sondages, à quelques mois des élections générales (très probablement cet automne).
    L’accord signé avec le Rwanda constitue une première en Europe et sa mise en œuvre est scrutée avec intérêt sur le continent. Il s’agit pour Londres de déporter dans ce pays d’Afrique de l’Est, à l’économie dynamique mais au régime considéré par beaucoup comme autoritaire, des personnes arrivées illégalement au Royaume-Uni (sans visa, en bateau ou cachés dans des camions). Ces personnes ne pourront réclamer l’asile que depuis le sol rwandais, qui examinera leur demande : il s’agit d’une délégation totale des responsabilités du Royaume-Uni vis-à-vis de l’asile. Le Rwanda, dirigé par le président Paul Kagame, a déjà obtenu environ 500 millions de livres sterling (580 millions d’euros) de Londres dans le cadre de l’accord.
    Déposé à la Chambre des communes en décembre 2023, le projet de loi « Safety of Rwanda » contourne une décision de la Cour suprême britannique, qui avait statué à l’unanimité, le 15 novembre 2023, que l’accord Rwanda était « illégal » car le Rwanda n’était pas un pays sûr : les demandeurs d’asile y sont exposés à un risque de refoulement vers leur pays d’origine. Jugé cruel par les associations de défense des droits des migrants, inquiétant pour de nombreux juristes, qui pointent des contradictions avec la convention européenne des droits de l’homme, le texte empêche les juges de questionner la sûreté du Rwanda en cas de recours des demandeurs d’asile contre leur expulsion. Il permet même aux ministres britanniques d’ignorer des mesures provisoires que prendrait la Cour européenne des droits de l’homme pour stopper des déportations.
    « Nous sommes les seuls à avoir un plan pour stopper les “small boats” [les bateaux pneumatiques traversant la Manche] », a affirmé lundi M. Sunak, assurant que le Labour « n’en a pas » et que le parti d’opposition « a tout fait pour faire dérailler le texte de loi ». « On m’accuse de manque de compassion, mais c’est tout le contraire, nous voulons créer une dissuasion permanente (…) avec un flux régulier de vols au Rwanda [pour décourager les traversées] et casser le modèle économique des passeurs », a ajouté le dirigeant, lui-même issu de l’immigration. Sa famille, d’origine indienne, est venue d’Afrique au Royaume-Uni dans les années 1960.
    Des dizaines de Lords – pas seulement des travaillistes, des dizaines de sans-étiquettes et pas mal d’évêques, membres de droit de la Chambre haute – ont tenté jusqu’au bout d’obtenir des concessions de Downing Street, espérant notamment l’adoption d’un amendement excluant les Afghans ayant travaillé pour l’armée britannique d’être déportés au Rwanda. Le Home Office n’a donné qu’une assurance verbale que ces Afghans ne seraient pas concernés. « L’accord Rwanda est un gadget exorbitant », a fustigé Yvette Cooper, la ministre de l’intérieur du cabinet fantôme travailliste – la gauche britannique a promis d’abandonner le texte si elle arrive au pouvoir.
    A l’autre bout du spectre politique, Nigel Farage, le président du parti d’extrême droite Reform UK, a qualifié le texte de loi de « totale mascarade », doutant de la volonté de M. Sunak de défier la convention européenne des droits de l’homme. Il est vrai que l’effet dissuasif de l’accord reste à prouver : il dépendra du nombre de personnes expulsées. Le risque d’une expulsion future au Rwanda n’a en tout cas pas encore découragé les traversées de la Manche, reparties à la hausse depuis le début de l’année, avec 25 % de passages supplémentaires par rapport à la même période l’an dernier. En 2023, 29 000 personnes étaient arrivées sur les côtes du Kent en bateaux pneumatiques.
    Même si le « Safety of Rwanda bill » limite les recours contre les expulsions, des appels seront quand même probablement recevables sur des motifs personnels (maladie, orientations sexuelles par exemple). Rishi Sunak assure être prêt : 150 juges et 25 cours de justice auraient été identifiés pour examiner ces appels en urgence, 500 personnes seraient chargées d’escorter les expulsés vers les avions. Mais des syndicats de fonctionnaires menacent de saisir la justice, s’inquiétant d’avoir à exécuter des décisions du Home Office potentiellement contraires aux obligations internationales du Royaume-Uni.
    Lundi, dans une déclaration commune, trois experts de l’ONU, Siobhan Mullally, la rapporteuse sur le trafic d’êtres humains, Gehad Madi, le rapporteur spécial sur les droits humains des migrants, et Alice Jill Edwards, la rapporteuse spéciale pour la torture, ont prévenu les compagnies aériennes transportant les demandeurs d’asile au Rwanda qu’elles risquaient, elles aussi, de se rendre complices de violations des droits humains.

    #Covid-19#migrant#migration#royaumeuni#droit#migrationirregguliere#rwanda#payssur#expulsion#smallboat#sante#politiquemigratoire

  • Rennes : Macron, Darmanin, Le Maire… Qui pose des photos d’hommes politiques sur des crottes de chien ?
    https://www.20minutes.fr/politique/4087649-20240422-rennes-macron-darmanin-maire-pose-photos-hommes-politique
    https://img.20mn.fr/xtRBWnaCSaCMIVNbtYskoSk/1444x920_des-portraits-de-bruno-le-maire-gerald-darmanin-et-emmanuel-macron
    Dans la vie politique, il y a les sondages… et il y a la rue, pour bien mesurer la popularité d’un régime.

    « J’ai pris la photo le 18 mars dans un parterre du quartier Colombier », raconte Hélène, qui a découvert le portrait du ministre de l’Intérieur Gérald Darmanin et son homologue de l’Economie Bruno Le Maire. « Ça m’a fait rire car ce ne sont pas des personnes que je porte dans mon cœur. Puis je me suis imaginée la personne en train de méticuleusement mettre en place les petits portraits sur les étrons ce qui m’a fait rire à nouveau », raconte la Rennaise, encore amusée par la petite installation.

  • De l’émeute à la démocratie | Alain Bertho
    https://blogs.mediapart.fr/alain-bertho/blog/200424/de-l-emeute-la-democratie

    Depuis le début du siècle, #émeutes et #soulèvements se succèdent partout. Les peuples y disent leur exigence d’égalité, de démocratie, de défense des communs et du vivant. Ces soulèvements sont autant de défaites. Comment rompre ce cycle de l’impuissance #politique ? Telle est la question posée par « De l’émeute à la démocratie » qui prolonge des interventions dans Mediapart ces dernières années.


    De l’émeute à la démocratie parait cette semaine aux éditions La Dispute. Ce livre est le fruit d’un long travail d’enquête jalonné déjà par quelques autres (1). Il est aussi le fruit d’une expérience militante pluri décennale et d’un constat : le bilan de notre génération est celui d’une succession d’échecs, ceux de toutes les tentatives de réinvention stratégique visant à résister au capitalisme financier : l’altermondialisme, le populisme de gauche, les « socialisme du XXI° siècle » latino-américain... Le pire est maintenant à l’ordre du jour.
    Comment puiser dans ces expériences et dans l’inventivité collective des peuples pour fonder la démocratie réelle dont l’humanité a aujourd’hui un besoin vital ? Ce #livre propose une lecture de notre expérience à partager et à débattre. En voici l’introduction (La politique n’est plus ce qu’elle était) et des extraits du premier chapitre (Une politique du corps)(11).

  • Comment préparer sa retraite
    http://carfree.fr/index.php/2024/04/22/comment-preparer-sa-retraite

    On ne va pas se mentir, il va falloir travailler de plus en plus longtemps et au bout de la route, si vous êtes encore vivant à 64, 65 ou Lire la suite...

    #Alternatives_à_la_voiture #Fin_de_l'automobile #Vélo #Vie_sans_voiture #2000 #économie #humour #politique #sans_voiture #société #Solutions #travail #Vivre_sans_voiture

  • « La France aurait intérêt à voir les étudiants étrangers comme des agents d’influence plutôt que comme de potentiels immigrés illégaux »
    https://www.lemonde.fr/idees/article/2024/04/20/la-france-aurait-interet-a-voir-les-etudiants-etrangers-comme-des-agents-d-i

    « La France aurait intérêt à voir les étudiants étrangers comme des agents d’influence plutôt que comme de potentiels immigrés illégaux »
    Chronique Philippe Bernard Editorialiste au « Monde »
    C’est une façon de mesurer le rayonnement de la France que les Français eux-mêmes ignorent largement : trente chefs d’Etat ou de gouvernement en exercice dans le monde en 2023 ont fait leurs études supérieures en France.
    Le classement des Etats les plus influents de ce point de vue, établi par le Higher Education Policy Institute, un cercle de réflexion britannique spécialisé dans les politiques universitaires, classe l’Hexagone en troisième position derrière les Etats-Unis (soixante-cinq dirigeants de la planète y ont fait leurs études) et le Royaume-Uni (cinquante-huit dirigeants). Derrière la France vient la Russie, où dix leaders mondiaux ont été formés, puis la Suisse, l’Australie, l’Italie et l’Espagne. A l’heure où les questions de souveraineté et d’attractivité sont largement débattues, l’accueil des étudiants étrangers est, dans notre pays, le plus souvent traité – négativement – dans la catégorie « immigration » plutôt que considéré comme un outil de rayonnement et d’influence.
    Suivant l’extrême droite, qui a tendance à voir derrière chaque étudiant étranger un immigré illégal en puissance, le sénateur (Les Républicains) des Hauts-de-Seine Roger Karoutchi a réussi, à l’automne 2023, à faire adopter un amendement au projet de loi sur l’immigration rendant obligatoire le dépôt d’une caution pour la délivrance d’un titre de séjour pour motif d’études, une somme qui aurait été restituée au moment de la sortie du territoire. Cette mesure a servi d’appât pour attirer le vote de la droite et de l’extrême droite sur le texte. Combattue par les responsables de l’enseignement supérieur, elle a finalement été censurée par le Conseil constitutionnel pour cause de rapport distant avec l’objet du projet de loi, ce qui ne l’empêche nullement d’être présentée à nouveau.
    « Honnêtement, ce n’est pas une bonne idée, avait admis Emmanuel Macron, dont la plupart des amis ont cependant voté pour. Je pense qu’on a besoin de continuer à attirer des talents et des étudiants du monde entier. » Le cliché des étrangers utilisant le statut d’étudiant pour contourner les règles du séjour a été ainsi conforté dans le débat. Un cas de figure qui existe mais reste minoritaire : 80 % des étudiants arrivés en France en 2010 ont quitté le pays ou sont devenus Français dix ans après la délivrance de leur premier titre de séjour. Ceux qui restent ne constituent pas moins de la moitié de l’immigration de travail légale, indique l’Organisation de coopération et de développement économiques (OCDE) dans son rapport 2023 sur les migrations internationales.
    La suspension de la délivrance des visas et des bourses d’études, à la rentrée 2023, pour les étudiants des pays du Sahel touchés par des coups d’Etat militaires, provoquée par la fermeture des consulats, mais qui pouvait être vécue comme une sanction consécutive aux putschs, a constitué un autre dérapage. Une bévue particulièrement malencontreuse au moment où les jeunes Africains mettent en cause la politique africaine de la France.
    La France aurait pourtant tout à gagner à considérer les étudiants étrangers comme une manne et un puissant outil d’influence. Aujourd’hui professeur émérite à Harvard, Joseph Nye, le politiste américain inventeur du concept de « soft power » – la capacité pour un Etat d’obtenir ce qu’il souhaite par l’attractivité plutôt que par la coercition ou l’argent –, considère que les Etats-Unis et le Royaume-Uni « boxent au-dessus de leur catégorie » sur le plan géopolitique en partie « grâce à l’accueil favorable qu’ils reçoivent largement des diplomates, responsables politiques et industriels étrangers qui y ont fait leurs études », explique-t-il au journal Times Higher Education.
    Personnellement, j’ai gardé en mémoire le souvenir de hauts fonctionnaires africains examinant favorablement ma demande d’accréditation comme journaliste dans leur pays en évoquant leurs belles années d’étudiant au Quartier latin et leur lecture du Monde. Chacun peut avoir ce type d’expérience à l’étranger. Près de 90 % des étudiants étrangers résidant en France estiment que leur séjour leur donne envie de travailler avec des entreprises françaises, de consommer des produits français et de recommander la France comme destination d’études, de travail et de vacances, indique une étude réalisée en 2022 par Campus France, l’agence de l’Etat chargée de la promotion de l’enseignement supérieur français à l’étranger.
    Instrument d’attractivité et de rayonnement, l’accueil des étudiants étrangers est aussi une activité rentable budgétairement. Les étrangers ayant choisi la France pour leurs études supérieures – ils sont 400 000 en 2024, soit 9 % du total des étudiants – ont rapporté 1,35 milliard d’euros net au pays en 2022, selon Campus France.
    Au Royaume-Uni, l’enseignement supérieur est officiellement considéré non seulement comme l’un des principaux facteurs de rayonnement du pays avec la BBC, mais comme une ressource financière faisant l’objet d’objectifs chiffrés. La dépendance financière des universités britanniques à l’égard des étudiants étrangers (ils sont 700 000, soit 25 % des effectifs totaux) payant le prix fort, qui conduit certaines d’entre elles à abaisser spécifiquement pour cette « clientèle » les seuils d’admission afin d’accroître leurs recettes, ne constitue évidemment pas un exemple.
    Mais entre la financiarisation forcenée de l’enseignement supérieur en vigueur outre-Manche, où l’Etat a réduit au minimum sa contribution, et l’indifférence française au trésor national que représentent les universités et les grandes écoles pour l’attractivité du pays, la marge est large. Alors que la mobilité étudiante vers la France est en perte de vitesse, à rebours de l’attractivité croissante des Etats-Unis, de l’Allemagne et de la Chine, il est urgent de soustraire la stratégique question de l’accueil des étudiants venus d’ailleurs au venimeux débat sur l’immigration.

    #Covid-19#migrant#migration#france#immigration#etudiant#economie#softpower#sante#politiquemigratoire#education#universite

  • « La France aurait intérêt à voir les étudiants étrangers comme des agents d’influence plutôt que comme de potentiels immigrés illégaux »
    https://www.lemonde.fr/idees/article/2024/04/20/la-france-aurait-interet-a-voir-les-etudiants-etrangers-comme-des-agents-d-i

    « La France aurait intérêt à voir les étudiants étrangers comme des agents d’influence plutôt que comme de potentiels immigrés illégaux »
    Chronique Philippe Bernard Editorialiste au « Monde »
    C’est une façon de mesurer le rayonnement de la France que les Français eux-mêmes ignorent largement : trente chefs d’Etat ou de gouvernement en exercice dans le monde en 2023 ont fait leurs études supérieures en France.
    Le classement des Etats les plus influents de ce point de vue, établi par le Higher Education Policy Institute, un cercle de réflexion britannique spécialisé dans les politiques universitaires, classe l’Hexagone en troisième position derrière les Etats-Unis (soixante-cinq dirigeants de la planète y ont fait leurs études) et le Royaume-Uni (cinquante-huit dirigeants). Derrière la France vient la Russie, où dix leaders mondiaux ont été formés, puis la Suisse, l’Australie, l’Italie et l’Espagne. A l’heure où les questions de souveraineté et d’attractivité sont largement débattues, l’accueil des étudiants étrangers est, dans notre pays, le plus souvent traité – négativement – dans la catégorie « immigration » plutôt que considéré comme un outil de rayonnement et d’influence.
    Suivant l’extrême droite, qui a tendance à voir derrière chaque étudiant étranger un immigré illégal en puissance, le sénateur (Les Républicains) des Hauts-de-Seine Roger Karoutchi a réussi, à l’automne 2023, à faire adopter un amendement au projet de loi sur l’immigration rendant obligatoire le dépôt d’une caution pour la délivrance d’un titre de séjour pour motif d’études, une somme qui aurait été restituée au moment de la sortie du territoire. Cette mesure a servi d’appât pour attirer le vote de la droite et de l’extrême droite sur le texte. Combattue par les responsables de l’enseignement supérieur, elle a finalement été censurée par le Conseil constitutionnel pour cause de rapport distant avec l’objet du projet de loi, ce qui ne l’empêche nullement d’être présentée à nouveau.
    « Honnêtement, ce n’est pas une bonne idée, avait admis Emmanuel Macron, dont la plupart des amis ont cependant voté pour. Je pense qu’on a besoin de continuer à attirer des talents et des étudiants du monde entier. » Le cliché des étrangers utilisant le statut d’étudiant pour contourner les règles du séjour a été ainsi conforté dans le débat. Un cas de figure qui existe mais reste minoritaire : 80 % des étudiants arrivés en France en 2010 ont quitté le pays ou sont devenus Français dix ans après la délivrance de leur premier titre de séjour. Ceux qui restent ne constituent pas moins de la moitié de l’immigration de travail légale, indique l’Organisation de coopération et de développement économiques (OCDE) dans son rapport 2023 sur les migrations internationales.
    La suspension de la délivrance des visas et des bourses d’études, à la rentrée 2023, pour les étudiants des pays du Sahel touchés par des coups d’Etat militaires, provoquée par la fermeture des consulats, mais qui pouvait être vécue comme une sanction consécutive aux putschs, a constitué un autre dérapage. Une bévue particulièrement malencontreuse au moment où les jeunes Africains mettent en cause la politique africaine de la France.
    La France aurait pourtant tout à gagner à considérer les étudiants étrangers comme une manne et un puissant outil d’influence. Aujourd’hui professeur émérite à Harvard, Joseph Nye, le politiste américain inventeur du concept de « soft power » – la capacité pour un Etat d’obtenir ce qu’il souhaite par l’attractivité plutôt que par la coercition ou l’argent –, considère que les Etats-Unis et le Royaume-Uni « boxent au-dessus de leur catégorie » sur le plan géopolitique en partie « grâce à l’accueil favorable qu’ils reçoivent largement des diplomates, responsables politiques et industriels étrangers qui y ont fait leurs études », explique-t-il au journal Times Higher Education.
    Personnellement, j’ai gardé en mémoire le souvenir de hauts fonctionnaires africains examinant favorablement ma demande d’accréditation comme journaliste dans leur pays en évoquant leurs belles années d’étudiant au Quartier latin et leur lecture du Monde. Chacun peut avoir ce type d’expérience à l’étranger. Près de 90 % des étudiants étrangers résidant en France estiment que leur séjour leur donne envie de travailler avec des entreprises françaises, de consommer des produits français et de recommander la France comme destination d’études, de travail et de vacances, indique une étude réalisée en 2022 par Campus France, l’agence de l’Etat chargée de la promotion de l’enseignement supérieur français à l’étranger.
    Instrument d’attractivité et de rayonnement, l’accueil des étudiants étrangers est aussi une activité rentable budgétairement. Les étrangers ayant choisi la France pour leurs études supérieures – ils sont 400 000 en 2024, soit 9 % du total des étudiants – ont rapporté 1,35 milliard d’euros net au pays en 2022, selon Campus France.
    Au Royaume-Uni, l’enseignement supérieur est officiellement considéré non seulement comme l’un des principaux facteurs de rayonnement du pays avec la BBC, mais comme une ressource financière faisant l’objet d’objectifs chiffrés. La dépendance financière des universités britanniques à l’égard des étudiants étrangers (ils sont 700 000, soit 25 % des effectifs totaux) payant le prix fort, qui conduit certaines d’entre elles à abaisser spécifiquement pour cette « clientèle » les seuils d’admission afin d’accroître leurs recettes, ne constitue évidemment pas un exemple.
    Mais entre la financiarisation forcenée de l’enseignement supérieur en vigueur outre-Manche, où l’Etat a réduit au minimum sa contribution, et l’indifférence française au trésor national que représentent les universités et les grandes écoles pour l’attractivité du pays, la marge est large. Alors que la mobilité étudiante vers la France est en perte de vitesse, à rebours de l’attractivité croissante des Etats-Unis, de l’Allemagne et de la Chine, il est urgent de soustraire la stratégique question de l’accueil des étudiants venus d’ailleurs au venimeux débat sur l’immigration.

    #Covid-19#migrant#migration#france#immigration#etudiant#economie#softpower#sante#politiquemigratoire#education#universite

  • 60 milliards en taxant les plus riches, maintenant, c’est possible !

    Bruno Le Maire l’a annoncé : il souhaite durcir sa politique de rigueur pour le plus grand nombre alors même qu’il se refuse à taxer les ultra-riches et les superprofits. Cette politique injuste et injustifiée aggrave les crises sociale et climatique. Mais ce n’est pas une fatalité. Attac propose six mesures pour dégager 60 milliards en imposant mieux les plus riches et les multinationales.

    https://entreleslignesentrelesmots.wordpress.com/2024/04/21/60-milliards-en-taxant-les-plus-riches-mainten

    #france #politique

  • Stop à la criminalisation des mouvements sociaux et des expressions politiques

    Les interdictions de meetings, de manifestations, les dissolutions d’associations et les condamnations de syndicats et syndicalistes sont inquiétantes pour nos libertés publiques. Il s’agit de choix politiques de la part du gouvernement : alors que le mouvement social est attaqué, l’extrême droite, elle, prospère et se réunit toujours plus nombreuse dans nos rues en bénéficiant de sa complaisance et de celle des médias.

    https://entreleslignesentrelesmots.wordpress.com/2024/04/20/les-poursuites-pour-apologie-du-terrorisme-ne-doivent-pas-devenir-un-outil-de-repression-politique/#comment-60701

    #france #politique

  • Les poursuites pour apologie du terrorisme ne doivent pas devenir un outil de répression politique
    Sophie Binet : « Les conflits sociaux ne se règlent jamais devant les tribunaux »
    Ne laissons pas condamner Jean-Paul Delescaut !
    Solidaires : Libertés publiques... UN Pas de plus dans la répression !

    Jean-Paul Delescaut, secrétaire général de la CGT du Nord est poursuivi pour apologie du terrorisme suite à un tract publié le 12 octobre à la suite des actes terroristes du Hamas. Comme la secrétaire administrative de l’union départementale, il a subi une interpellation musclée par des policiers cagoulés, devant ses enfants à 6h du matin, avec un menottage humiliant suivi de 6 heures de garde à vue.

    https://entreleslignesentrelesmots.wordpress.com/2024/04/20/les-poursuites-pour-apologie-du-terrorisme-ne-

    #france #politique

  • Organizing for Power - Democratic Socialists of America (DSA)
    https://www.dsausa.org/organizing4power

    Our greatest power comes from collective action, and we have a window of opportunity to flex that power in the face of rising authoritarianism, climate change, and potential nuclear war.

    We are excited to announce our partnership with the Organizing for Power global training program and invite DSA chapters, national committees, and individual members to participate. UPDATE: Registration for this course has now closed.

    O4P is a training program for organizers, developed by labor, community and electoral organizer and educator Jane McAlevey, coordinated by Ethan Earle (a longtime DSA member and former IC co-chair), and funded by the Rosa Luxemburg Foundation. Since its founding in 2019, O4P has trained nearly 25,000 union and other organizers from 110+ countries participating in 12 different languages.

    This training is about winning, pure and simple. It focuses on building strong organization by talking to people who aren’t already with us, and together launching strategic, high participation campaigns that are equipped to win… against bosses, landlords and all the others who benefit from exploitation and violence against the working class of the world.

    Logistical details:

    The training series launches May 10 and runs for six consecutive Tuesdays, finishing June 14.
    Each session is held twice for its global audience, first from 12-2pm ET and again from 8-10pm ET.
    This training is FREE.
    Advanced registration is REQUIRED. Registration is now closed.

    Over these six weeks, you will work on important core skills:

    organic leader identification
    word choice
    conducting structured organizing conversations
    charting and list work
    developing structure tests to gauge, show off and build power

    Key to all of this is interacting with fellow organizers to practice these skills. Weeks 2-5 include breakout groups — sometimes with DSAers and others with participants from across the world — and each week includes “campaign practice assignments” for you to do between sessions.

    It has been a challenging period for DSA and the broader US left. In the face of profound dangers, from climate change to a rigid political system to murderous bosses, we have spent too much energy fighting with each other, against people we should be joining with in shared struggle. So join with DSA comrades — and fellow organizers from around the world — to together build our networks, skill sets, and collective campaigns capable of winning real power for the working classes of the world!

    You can learn more about this, O4P’s 5th training, at Organizing for Power’s Core Fundamentals, or see its results in action in this video highlighting Berlin hospital workers who used a previous training to build toward a multi-sector strike that won a standard-setting collective agreement. Learn about the DSA training series in 2019 that inspired O4P here.

    #syndicalisme #USA #politique