Our Guest Bruce Schneier Discusses
Is AI a Threat to Democracy? Bruce Schneier Explains What Comes Next
Is artificial intelligence strengthening democracy or quietly reshaping power in ways we’re not prepared for?
On this episode of Digital Disruption, we’re joined by world-renowned security technologist and author Bruce Schneier.
Described by the Economist as a "security guru," Bruce is best known as a refreshingly candid and lucid security critic and commentator. He works at the intersection of security, technology, and people and has been writing about security issues on his blog since 2004 and monthly newsletter since 1998. He is a fellow and lecturer at Harvard’s Kennedy School, a board member of the Electronic Frontier Foundation, and the chief of security architecture at Inrupt, Inc.
Bruce joins Geoff to explore one of the most important questions: Will AI strengthen democracy or quietly undermine it? From government services and public policy to cybersecurity, labor, and the justice system, Bruce breaks down how artificial intelligence acts as a power-magnifying technology, amplifying both the best and worst intentions of those who use it. Drawing from real-world examples in Germany, Brazil, Japan, France, Canada, and the United States, this conversation examines where AI is already reshaping democratic institutions. Bruce also outlines four concrete strategies for steering AI toward democratic outcomes: resisting harmful uses, reforming the AI ecosystem, responsibly deploying AI where it helps, and fixing the underlying societal problems AI tends to amplify.
This conversation also dives into:
- How AI can improve government efficiency without replacing human judgment.
- The risks of AI concentration in the hands of powerful corporations and governments.
- AI’s impact on work, jobs, and hiring in an era of automation.
- The role of regulation, reform, and resistance in shaping AI’s future.
- Whether AI will ultimately democratize power or reinforce inequality.
00;00;00;05 - 00;00;01;01
Hey everyone!
00;00;01;01 - 00;00;02;18
I'm super excited to be sitting down
00;00;02;18 - 00;00;06;15
with a globally renowned technology
security guru, Bruce Schneier.
00;00;06;27 - 00;00;11;10
He's a fellow at Harvard Berkman Klein
Center, Internet Society, and a New York
00;00;11;12 - 00;00;15;19
Times bestselling author of 17 books,
including Rewiring Democracy
00;00;15;27 - 00;00;19;12
How I Will Transform Our Politics,
Government, and Citizenship.
00;00;19;15 - 00;00;20;25
Well, I love it, Bruce.
00;00;20;25 - 00;00;24;19
For three decades,
you talked to a major technology,
00;00;25;01 - 00;00;29;29
the public interest, as distribution,
not the concentration of power.
00;00;30;03 - 00;00;34;10
I want to ask him if he sees AI
as an existential threat to democracy.
00;00;34;25 - 00;00;36;14
There are reasons for optimism.
00;00;36;14 - 00;00;38;25
Can actually make society stronger.
00;00;38;25 - 00;00;43;04
And what do we play in check
and make sure that
00;00;44;17 - 00;00;47;17
not finding.
00;00;48;06 - 00;00;49;00
Threats.
00;00;49;00 - 00;00;51;21
Do they really do away with you?
00;00;51;21 - 00;00;52;09
Maybe.
00;00;52;09 - 00;00;55;17
You know, we talk the AI in democracy,
00;00;55;17 - 00;00;59;13
which I know is an area
that you lean into recently.
00;00;59;13 - 00;01;04;19
So, you know, with that in mind is called,
you know, the landscape of of.
00;01;05;02 - 00;01;07;14
Yeah, I hate that.
00;01;07;14 - 00;01;09;22
What do you see as the biggest risks
00;01;09;22 - 00;01;12;22
and the biggest positives for where,
you know, I can have an impact.
00;01;14;00 - 00;01;15;06
I think
00;01;15;06 - 00;01;18;24
everywhere and AI is fundamentally
00;01;18;29 - 00;01;21;28
a a magnet for technology.
00;01;21;29 - 00;01;26;16
Technology places human cognition
in many ways.
00;01;27;01 - 00;01;30;27
There's just so many areas
where we don't have enough humans
00;01;31;04 - 00;01;33;27
to do the thing properly.
00;01;33;27 - 00;01;38;26
So, you know, I think about,
I think one, when I wrote my know,
00;01;39;07 - 00;01;42;07
I looked at five very different areas.
00;01;43;00 - 00;01;46;00
I looked at politics, which
00;01;46;29 - 00;01;49;29
will be a political process
running growth,
00;01;50;22 - 00;01;53;08
AI and legislating
00;01;53;08 - 00;01;56;15
the writing and the passing of laws,
00;01;57;09 - 00;02;01;07
AI administration
and all the things government does,
00;02;01;07 - 00;02;06;20
whether it's,
it's like doing the stuff of law, say,
00;02;07;11 - 00;02;11;10
AI in court system
and then finally AI and systems.
00;02;11;26 - 00;02;16;13
And there are,
there are cool things everywhere there.
00;02;16;18 - 00;02;18;02
There are risks everywhere.
00;02;18;02 - 00;02;21;01
There's just too big a question
00;02;21;01 - 00;02;23;24
to answer in general,
because the technology is going.
00;02;26;05 - 00;02;27;11
Thematically.
00;02;27;11 - 00;02;30;17
It's like, you know, you have this vision
00;02;30;21 - 00;02;34;09
that if things like supercharging
the public service.
00;02;34;24 - 00;02;38;06
Like making governments more effective,
00;02;39;08 - 00;02;43;09
is it for,
you know, responsibilities for that?
00;02;43;18 - 00;02;46;17
Is that or for that?
00;02;46;18 - 00;02;49;18
But it's not. So I think you're right.
00;02;49;22 - 00;02;53;20
I will help government core things.
00;02;54;20 - 00;02;57;22
The government's core
things are arresting people
00;02;58;06 - 00;03;01;29
and suppressing dissent and being policy.
00;03;02;16 - 00;03;04;24
I will help
00;03;04;24 - 00;03;07;24
if governments things are crack,
00;03;08;12 - 00;03;10;14
I will help as well.
00;03;10;14 - 00;03;14;22
So it's the knowledge
isn't sort of out of the box.
00;03;16;00 - 00;03;19;00
That help give me more.
00;03;19;00 - 00;03;22;16
It'll help the humans
who are in charge of government
00;03;23;14 - 00;03;26;09
do the things they want to do.
00;03;26;09 - 00;03;29;24
Now it's a little more okay,
00;03;30;06 - 00;03;34;22
but there are ways that we can help steer
00;03;34;22 - 00;03;38;21
the technology toward more versus
less democracy.
00;03;39;09 - 00;03;41;11
I really think AI
00;03;42;12 - 00;03;44;22
technology that will
00;03;44;22 - 00;03;49;03
empower individuals
to do whatever they want to do
00;03;49;20 - 00;03;52;27
better, faster, stronger, more intense.
00;03;55;16 - 00;03;58;16
So I'm not sure because,
00;03;58;23 - 00;04;01;28
you know, if you use your words,
it's power magnifying.
00;04;02;14 - 00;04;06;29
And so that's that's the part
that, you know, I'm concerned about.
00;04;07;00 - 00;04;10;22
I think, you know, people
following concern about you've got these,
00;04;11;06 - 00;04;15;04
you know, billionaires or oligarchs
on this platform or you've got,
00;04;15;14 - 00;04;19;17
you know, people in power looking to,
you know, accumulate more power.
00;04;20;01 - 00;04;23;16
How do we what we have to make sure
00;04;23;16 - 00;04;27;01
that tool for good, for the greater.
00;04;27;01 - 00;04;27;22
Good.
00;04;27;22 - 00;04;30;24
So primarily this isn't a problem.
00;04;31;19 - 00;04;36;08
This is a capitalist role or or yes,
with all the things we need to do
00;04;36;21 - 00;04;39;28
to reduce the power of up,
00;04;41;03 - 00;04;42;26
we need to do it is this.
00;04;42;26 - 00;04;44;23
This doesn't change that.
00;04;44;23 - 00;04;47;23
And in a sense, it's sort of based
00;04;47;24 - 00;04;51;06
because now the powerful
getting even more powerful.
00;04;51;22 - 00;04;54;22
And the fact that we're building society
00;04;55;03 - 00;04;57;16
for the new nation that,
00;04;57;16 - 00;05;00;18
you know, tech billionaires is stupid.
00;05;01;00 - 00;05;03;28
So, yes, I mean, there's
a lot of things to do there.
00;05;03;28 - 00;05;07;07
I think is the most important thing
we can do.
00;05;07;08 - 00;05;08;27
There are lots of others.
00;05;08;27 - 00;05;11;13
So in our book, we list four things.
00;05;11;13 - 00;05;12;23
And it's one
00;05;14;00 - 00;05;17;00
right to reform the AI ecosystem.
00;05;17;14 - 00;05;21;09
Right
now, the few companies, all the power.
00;05;21;24 - 00;05;24;08
And that's that.
00;05;24;08 - 00;05;27;09
Now, I think some of the reform as
00;05;28;21 - 00;05;30;06
building models.
00;05;30;06 - 00;05;31;15
Talk about that later.
00;05;31;15 - 00;05;33;22
That's the first thing
00;05;33;22 - 00;05;35;16
and is to resist the use of
00;05;35;16 - 00;05;40;24
I think that things we're trying
to do place humans with
00;05;41;15 - 00;05;44;28
for a heck lot of bad app goes.
00;05;46;13 - 00;05;49;25
The third is we'll use AI where we could.
00;05;51;00 - 00;05;53;07
There are lots today.
00;05;53;07 - 00;05;55;14
We're in Canada this year. I'm.
00;05;55;14 - 00;05;57;26
I'm visiting year over year.
00;05;57;26 - 00;06;01;16
And I so much of hundreds of
00;06;01;17 - 00;06;04;17
AI pilots in Canada
00;06;05;19 - 00;06;09;18
that are like design better not worse.
00;06;10;08 - 00;06;12;25
So we want to lean into those
00;06;12;25 - 00;06;15;12
and finally start with
00;06;15;12 - 00;06;19;00
we to reform the problems
00;06;19;18 - 00;06;22;23
with AI markers, see our existing problem.
00;06;23;11 - 00;06;25;07
Chrissy. The AI exacerbates.
00;06;26;05 - 00;06;26;27
So all the
00;06;26;27 - 00;06;30;16
solutions
we have not for better in this century.
00;06;31;05 - 00;06;33;01
We need to do that.
00;06;33;01 - 00;06;36;20
So those are the four things
that we think about on
00;06;36;20 - 00;06;39;20
how to make this technology for democracy.
00;06;40;27 - 00;06;42;10
So it's, right.
00;06;42;10 - 00;06;44;00
It's,
00;06;44;00 - 00;06;44;09
right.
00;06;44;09 - 00;06;46;23
Resist harmful uses
00;06;46;23 - 00;06;49;18
to, reform the AI ecosystem,
00;06;49;18 - 00;06;52;02
to responsibly use it where you can
00;06;52;02 - 00;06;56;13
and to see, to make it okay.
00;06;56;13 - 00;06;59;12
And I think the rest of it.
00;06;59;12 - 00;07;02;06
So let's let's follow the, let's follow up
00;07;02;06 - 00;07;05;06
for a minute,
because we've, dwell in a little,
00;07;05;25 - 00;07;07;28
And you
00;07;07;28 - 00;07;09;28
just don't get a fair play.
00;07;09;28 - 00;07;14;18
I know, and it's a sad reality right now
where, you know,
00;07;14;18 - 00;07;19;05
the outrage here and what, you know,
takes the oxygen out of the room.
00;07;19;05 - 00;07;21;08
So, you know, on that note,
00;07;21;08 - 00;07;25;20
you know, use cases that,
you know, cited you or you, you have
00;07;26;22 - 00;07;30;02
the kind of left, either filled you,
00;07;30;26 - 00;07;33;26
or left the most meaningful
impression about.
00;07;34;12 - 00;07;37;12
Oh, well,
so I can give you a few different stories.
00;07;38;12 - 00;07;39;21
Let me start.
00;07;39;21 - 00;07;41;28
Germany is not an easy one.
00;07;41;28 - 00;07;45;04
Germany has, complex system,
lots of parties.
00;07;45;24 - 00;07;49;11
And, they have long had a nonpartisan
voter guide.
00;07;50;08 - 00;07;51;21
Right.
00;07;51;21 - 00;07;54;21
That voters can read,
figure out for who vote for,
00;07;55;27 - 00;08;01;17
just this year, they have experimented
with a chat version of that.
00;08;02;16 - 00;08;02;25
Right.
00;08;02;25 - 00;08;05;03
Instead of reading,
00;08;05;03 - 00;08;07;04
engage in a conversation.
00;08;07;04 - 00;08;09;03
Turns out to be really popular.
00;08;09;03 - 00;08;10;08
It's really easy to do.
00;08;10;08 - 00;08;12;22
It's.
00;08;12;22 - 00;08;14;03
Narrow.
00;08;14;03 - 00;08;16;23
Narrow for these.
00;08;16;23 - 00;08;21;27
This is just an easy way
that I is willing to fan
00;08;22;21 - 00;08;25;20
their politics better.
00;08;26;28 - 00;08;29;16
Secretary, it's gonna be fun.
00;08;29;16 - 00;08;31;13
This is a wacky story.
00;08;31;13 - 00;08;38;00
So, here are, No,
he is a 30 year old engineer.
00;08;38;20 - 00;08;41;21
Two years ago, he ran for Hope, you know.
00;08;42;28 - 00;08;45;17
And what he did is he
00;08;45;17 - 00;08;49;10
produced an ad of himself
that he put on YouTube.
00;08;49;23 - 00;08;50;06
And. Sure.
00;08;50;06 - 00;08;53;23
Questions voters like this tweet marathon.
00;08;55;20 - 00;08;58;28
He came in fifth out of 50,
which was crazy,
00;09;00;05 - 00;09;01;15
cause you engaged.
00;09;01;15 - 00;09;03;24
I talked.
00;09;03;24 - 00;09;05;14
So cool story.
00;09;05;14 - 00;09;09;27
But a few months ago,
he got elected to the upper house of.
00;09;10;16 - 00;09;11;06
Right.
00;09;11;06 - 00;09;14;05
So he is now a representative.
00;09;14;05 - 00;09;17;05
His party is Mirai, future.
00;09;17;15 - 00;09;20;13
He's the only member of this party,
00;09;20;13 - 00;09;25;24
and he's using AI
because when you party in Japan.
00;09;25;26 - 00;09;27;16
Yeah. Government.
00;09;27;16 - 00;09;30;15
So he's using these tools to build
00;09;30;29 - 00;09;36;16
AI system for me to allow his constituents
00;09;36;25 - 00;09;41;09
to engage with legislation, policies
00;09;41;24 - 00;09;44;23
that modify them in real time.
00;09;45;09 - 00;09;46;16
Super cool.
00;09;46;16 - 00;09;50;02
He's trying to figure out
what is politics in the AI era.
00;09;50;14 - 00;09;53;25
And he's an engineer, politician
who might actually do it.
00;09;56;13 - 00;09;57;25
We want to go with my story.
00;09;57;25 - 00;10;00;25
Let's go to South America.
00;10;01;14 - 00;10;02;27
Brazil.
00;10;02;27 - 00;10;05;07
So Brazil is,
00;10;05;07 - 00;10;08;07
even more so just, you know,
let's say a lot
00;10;08;20 - 00;10;12;11
of, like, one GDP on lawsuits.
00;10;12;25 - 00;10;15;25
The government spends the additional 1%
of GDP
00;10;16;05 - 00;10;19;05
paying lawsuits against government.
00;10;20;03 - 00;10;24;28
So a couple of years ago, the courts
started using AI not to make decisions,
00;10;25;05 - 00;10;28;20
but to do all the administrative work
around the courts,
00;10;28;24 - 00;10;32;08
assigning attorneys to cases
and just doing all that stuff.
00;10;33;05 - 00;10;34;23
Turn it up.
00;10;34;23 - 00;10;37;26
Decrease the backlog of cases
dramatically.
00;10;38;08 - 00;10;41;00
You can see graph.
00;10;41;00 - 00;10;44;00
So here's I courts more efficient.
00;10;44;02 - 00;10;46;23
There is a little revenge.
00;10;46;23 - 00;10;49;23
That story attorneys using AI,
00;10;50;03 - 00;10;53;02
cases, the number of cases is going up.
00;10;53;06 - 00;10;56;27
I think this is actually a good story
because we want there
00;10;56;27 - 00;11;02;07
to be more cases,
more decisions in democracy.
00;11;02;23 - 00;11;05;23
So I increase efficiency side.
00;11;06;09 - 00;11;08;19
Good thing I could go
00;11;08;19 - 00;11;11;24
on the stories all over the place.
00;11;12;18 - 00;11;15;27
Now, largely
they're not generative AI sorry
00;11;16;05 - 00;11;21;18
chatbot for some are a lot
aren't actually more story story
00;11;23;08 - 00;11;24;19
calmatters.
00;11;24;19 - 00;11;27;03
There are watchers in California,
00;11;27;03 - 00;11;30;03
basically, collect every
00;11;30;26 - 00;11;33;02
like the
00;11;33;02 - 00;11;36;26
every floor speech,
campaign, email, tweet,
00;11;37;07 - 00;11;40;27
rethink their voting record
and who funds them.
00;11;41;08 - 00;11;46;03
And you can go on site right now
and look up anything you want.
00;11;47;01 - 00;11;50;01
So I in an interesting way,
00;11;50;06 - 00;11;53;23
they have a a program for journalists
00;11;53;23 - 00;11;56;23
just for journalists to sheet.
00;11;56;23 - 00;12;00;15
So what is the I look at all of that data
00;12;01;09 - 00;12;03;20
and finds anomalies.
00;12;03;20 - 00;12;06;08
These are weird like voting records
that change
00;12;06;08 - 00;12;10;01
with contributions and rhetoric
that match two.
00;12;10;10 - 00;12;12;22
But doesn't publish that.
00;12;12;22 - 00;12;14;14
It makes
00;12;14;14 - 00;12;16;11
journalists, journalists.
00;12;16;11 - 00;12;19;11
Look at these items on
00;12;19;26 - 00;12;22;01
the site themselves.
00;12;22;01 - 00;12;23;18
It is worth pursuing.
00;12;23;18 - 00;12;26;24
And then if it is
the human work of journalism
00;12;27;18 - 00;12;30;25
and write a story,
it's really good example.
00;12;31;16 - 00;12;33;14
Just being a human process
00;12;34;15 - 00;12;37;15
and not taking it over.
00;12;38;02 - 00;12;39;02
All right.
00;12;39;02 - 00;12;40;06
Going through the rest of the hour.
00;12;40;06 - 00;12;42;15
But there's another question.
00;12;42;15 - 00;12;44;18
Noel. And,
00;12;44;18 - 00;12;45;26
thank you for sharing those.
00;12;45;26 - 00;12;50;15
I love the breadth of them
and how they use the technology
00;12;50;15 - 00;12;54;03
in very different ways,
and how they some use cases there.
00;12;54;16 - 00;12;57;27
You know, that last one
was really interesting to me because it
00;12;58;25 - 00;13;01;18
as you said, it empowers people.
00;13;01;18 - 00;13;07;13
And it's easy to imagine a world
where technology just as well
00;13;07;13 - 00;13;12;00
I'm publishing the article or I'm
sharing this, but deliberately doesn't.
00;13;12;04 - 00;13;13;27
And so I'm curious.
00;13;13;27 - 00;13;14;22
And that's what I want.
00;13;14;22 - 00;13;17;22
I want to assist the humans.
00;13;17;28 - 00;13;21;19
So France, the AI model to assist
00;13;22;12 - 00;13;24;28
legislators in writing legislation.
00;13;24;28 - 00;13;25;22
Right.
00;13;25;22 - 00;13;28;22
That's great.
00;13;29;20 - 00;13;31;06
Writing legislation
00;13;31;06 - 00;13;34;07
is, nonpartisan into the job.
00;13;35;19 - 00;13;37;12
But as long as the
00;13;38;23 - 00;13;39;26
process of
00;13;39;26 - 00;13;42;26
reviewing and submitting and voting.
00;13;43;00 - 00;13;44;26
That's great.
00;13;44;26 - 00;13;47;10
That's Samuel from Brazil.
00;13;47;10 - 00;13;49;21
The first known law
00;13;49;21 - 00;13;52;29
written entirely by 2023.
00;13;53;15 - 00;13;56;15
The great, city.
00;13;56;16 - 00;13;58;09
So person,
00;13;58;09 - 00;14;02;02
wanted to write a bill
that were from Monday.
00;14;02;28 - 00;14;05;27
I thought early, early months.
00;14;07;11 - 00;14;08;21
Put it in a prompt.
00;14;08;21 - 00;14;10;22
What was it?
00;14;10;22 - 00;14;13;01
Submitted it as a bill.
00;14;13;01 - 00;14;16;01
It was not. Okay.
00;14;16;07 - 00;14;17;15
So again. Right.
00;14;17;15 - 00;14;20;06
The human is using an AI
00;14;20;06 - 00;14;23;21
as an assistant there
because it's a human process.
00;14;24;14 - 00;14;26;07
Great.
00;14;26;07 - 00;14;29;07
I think it's a wonderful use of the.
00;14;30;25 - 00;14;35;11
If you work in IT, Infotech Research Group
is a name you need to know
00;14;35;11 - 00;14;36;27
no matter what your needs are.
00;14;36;29 - 00;14;38;15
Infotech has you covered.
00;14;38;15 - 00;14;40;17
AI Strategy? Covered.
00;14;40;17 - 00;14;43;04
Disaster recovery? Covered.
00;14;43;04 - 00;14;45;20
Vendor negotiation? Covered.
00;14;45;20 - 00;14;48;12
Infotech supports you with the best-practice research
00;14;48;12 - 00;14;50;14
and a team of analysts standing by.
00;14;50;14 - 00;14;53;09
ready to help you tackle your toughest challenges.
00;14;53;09 - 00;14;54;16
Check it out at the link below
00;14;54;16 - 00;14;56;07
And don't forget to like and subscribe.
00;14;57;29 - 00;14;58;09
Part of the
00;14;58;09 - 00;15;01;11
narrative is part of the pressure
00;15;02;09 - 00;15;05;03
resistance that you were talking about is,
00;15;05;03 - 00;15;08;03
you know, like one of the reasons,
00;15;08;19 - 00;15;11;12
you know, especially with generative
00;15;11;12 - 00;15;14;24
AI is there's this sense that
00;15;15;15 - 00;15;18;15
the quality isn't to love
00;15;18;19 - 00;15;23;01
and trust, to be fully autonomous,
and you need human eyes reviewing it.
00;15;23;13 - 00;15;26;13
Now the narrative I'm getting to is
there's I
00;15;26;14 - 00;15;29;14
well, you know, in
six months or 12 months, right.
00;15;29;22 - 00;15;32;22
It will be that level where you,
00;15;33;12 - 00;15;36;18
you and I, you know, visual reaction.
00;15;37;06 - 00;15;40;06
And I wanted to ask you is that.
00;15;41;01 - 00;15;43;08
Is it is that coming?
00;15;43;08 - 00;15;48;29
Is that the decision is a human decision?
00;15;49;21 - 00;15;52;21
How is this going to unfold
in the next couple of years?
00;15;52;29 - 00;15;54;18
So a lot of application.
00;15;54;18 - 00;15;56;09
There's no single answer for that.
00;15;56;09 - 00;16;01;14
So for each
human is better than email spam.
00;16;01;29 - 00;16;05;18
Then I bet you get a million emails.
00;16;06;26 - 00;16;09;08
Doesn't matter how good the humans are,
00;16;09;08 - 00;16;12;08
the AI can be used because it is faster,
00;16;13;26 - 00;16;14;07
right?
00;16;14;07 - 00;16;18;08
You know,
we know that people are better at writing.
00;16;19;26 - 00;16;22;16
No writing for emails
00;16;22;16 - 00;16;25;16
kind of link than AI is,
00;16;26;06 - 00;16;29;06
but an AI is going to send, you know,
00;16;29;25 - 00;16;32;28
those animals out at a much greater scale
00;16;34;12 - 00;16;35;17
than a human can.
00;16;35;17 - 00;16;37;09
So it isn't just better.
00;16;37;09 - 00;16;41;07
So, you know, right now
we know there are judges
00;16;41;24 - 00;16;45;05
that are using AI to help draft, decision.
00;16;47;17 - 00;16;51;05
For that, they'll know only the good side
00;16;52;09 - 00;16;55;10
as long as the judge has reviewing it.
00;16;55;28 - 00;16;57;13
I'm fine with it. Right.
00;16;57;13 - 00;16;59;21
Judges are going to have a legal quirk.
00;16;59;21 - 00;17;02;23
And, the result, of course, they are
00;17;02;25 - 00;17;05;16
guaranteed hurdles biased, right?
00;17;05;16 - 00;17;08;16
So the human process.
00;17;09;06 - 00;17;10;16
So there are cases
00;17;10;16 - 00;17;14;00
where just the user has to trust it,
right?
00;17;14;17 - 00;17;16;10
Want help writing a speech
00;17;17;23 - 00;17;20;23
or the legislature wants to use it?
00;17;21;05 - 00;17;24;04
Grammar checker they cite
00;17;24;11 - 00;17;27;11
there's some up where we site.
00;17;27;12 - 00;17;30;10
So there have been AI systems that,
00;17;30;10 - 00;17;33;10
they used for, parole
00;17;33;19 - 00;17;35;18
and make recommendations
00;17;35;18 - 00;17;38;21
or recommendations
that are going to be released.
00;17;39;23 - 00;17;42;03
And there's, he has to decide
00;17;42;03 - 00;17;45;03
or you imagine the AI use,
00;17;45;27 - 00;17;49;11
you know, right now, insurers are using
00;17;49;11 - 00;17;53;23
AI to look at claims,
isn't they do denial claims.
00;17;55;03 - 00;17;58;21
Yeah,
I think that is that's another problem.
00;17;58;27 - 00;18;02;09
That's the problem of, of the system.
00;18;02;09 - 00;18;04;09
Then since
00;18;04;09 - 00;18;06;21
insurance companies does not claim
00;18;06;21 - 00;18;09;15
they are doing it faster.
00;18;09;15 - 00;18;11;22
But if we want to use it for,
00;18;11;22 - 00;18;14;28
some kind of benefits, decision
that a government makes,
00;18;15;19 - 00;18;20;29
whether it matters a lot here, again,
it's design.
00;18;20;29 - 00;18;23;11
In our book we talk about possibility.
00;18;23;11 - 00;18;28;01
So for example,
we use our Social Security, this is year
00;18;29;04 - 00;18;29;24
for approval.
00;18;29;24 - 00;18;32;24
People die waiting for the benefits.
00;18;32;24 - 00;18;36;10
I can help here, but I also tax.
00;18;36;18 - 00;18;38;25
And, you know, harmful.
00;18;38;25 - 00;18;43;09
So here's proposition the
I is only allowed to say yes.
00;18;44;21 - 00;18;45;01
Right.
00;18;45;01 - 00;18;48;01
So the I look
00;18;48;08 - 00;18;51;07
at the easy ones or
00;18;52;00 - 00;18;54;02
so the humans who are there.
00;18;54;02 - 00;18;57;06
Their job is now to look at the hard ones.
00;18;58;18 - 00;19;00;20
The ones that are, you know,
00;19;00;20 - 00;19;03;09
the AI is not allowed to say no.
00;19;03;09 - 00;19;04;03
Say yes.
00;19;04;03 - 00;19;07;03
So here I design in
00;19;07;11 - 00;19;11;03
where I'm okay, though
maybe a higher error rate
00;19;11;24 - 00;19;14;10
is worth it to backlog.
00;19;14;10 - 00;19;20;06
I'm ensuring that nobody is penalized
because we're using AI
00;19;21;01 - 00;19;23;14
and all applications be thought
00;19;23;14 - 00;19;26;14
about individually in that way.
00;19;26;14 - 00;19;26;28
Right.
00;19;26;28 - 00;19;27;26
It's good enough.
00;19;27;26 - 00;19;30;25
It's accurate compared to what
00;19;30;25 - 00;19;32;27
the AI is being used to review.
00;19;32;27 - 00;19;35;27
And social media is good.
00;19;35;27 - 00;19;36;24
Yeah. Who cares?
00;19;36;24 - 00;19;39;09
Right? It's okay. It's good enough.
00;19;39;09 - 00;19;43;18
You you met earlier
this notion of AI being,
00;19;45;14 - 00;19;48;28
can increase speed and increase scale.
00;19;49;08 - 00;19;49;18
Right.
00;19;49;18 - 00;19;54;07
And, you know, the implication of there's
a lot of areas and you've you've talked
00;19;54;25 - 00;19;57;28
you talked about,
you know, the judiciary system
00;19;58;11 - 00;20;01;03
where the price of these services
00;20;01;03 - 00;20;04;20
is very sort of like it
falls is zero, right?
00;20;04;20 - 00;20;08;13
If you get the current state and suddenly
00;20;09;10 - 00;20;12;10
this what, you know,
00;20;12;20 - 00;20;17;22
those two are there areas opportunity
being like these areas
00;20;17;22 - 00;20;21;07
where you see the price falling
and you think that
00;20;22;12 - 00;20;25;08
the new societal value unlocked.
00;20;25;08 - 00;20;28;03
The in price fully is I mean,
00;20;28;03 - 00;20;30;18
we see this in the various arms races.
00;20;30;18 - 00;20;33;18
So a lot of examples,
00;20;33;20 - 00;20;35;25
people using AI, right?
00;20;35;25 - 00;20;38;25
Their businesses and for jobs.
00;20;38;25 - 00;20;42;03
Which means you're applying
for a lot more jobs, right?
00;20;42;07 - 00;20;44;28
Costs up for job drops.
00;20;44;28 - 00;20;46;04
You know, zero.
00;20;46;04 - 00;20;49;16
You shouldn't apply for many more jobs
on the receiving end.
00;20;49;29 - 00;20;52;24
Employers now inundated with resumes.
00;20;53;25 - 00;20;56;25
Now, therefore, you use AI to,
00;20;58;00 - 00;21;01;02
post,
00;21;01;11 - 00;21;02;23
for submission.
00;21;02;23 - 00;21;04;07
Yeah,
00;21;04;07 - 00;21;07;06
I was writing them. And
00;21;07;13 - 00;21;10;13
and the journalists are, you know,
00;21;10;26 - 00;21;14;20
they say I choose to screen stream
articles.
00;21;15;17 - 00;21;18;17
I was in Washington DC.
00;21;20;12 - 00;21;22;07
Or seeing an uptick in
00;21;22;07 - 00;21;26;22
AI written comments from constituents
or from campaigns.
00;21;27;09 - 00;21;30;08
And, you know,
they are looking at AI tools.
00;21;31;20 - 00;21;34;06
So, you know, the
00;21;34;06 - 00;21;37;06
the slogan on one end versus
00;21;37;11 - 00;21;39;26
the other, college applications.
00;21;39;26 - 00;21;43;08
The same way
I know someone who runs a literary journal
00;21;43;28 - 00;21;46;28
who basically turned off submissions,
00;21;47;09 - 00;21;50;09
just getting AI written short stories,
and they were terrible.
00;21;50;23 - 00;21;53;18
And he had to use humans to
00;21;53;18 - 00;21;56;18
write their tool.
00;21;57;23 - 00;22;01;25
So one example here where the automation,
00;22;02;07 - 00;22;06;16
as you say, bringing the cost thing down
like a cheaper
00;22;07;17 - 00;22;10;01
is going to for some on the other end.
00;22;10;01 - 00;22;12;09
And you know what the new equilibrium is.
00;22;12;09 - 00;22;15;15
We don't know if your job applications
00;22;16;04 - 00;22;19;00
with using AI tools right there.
00;22;19;00 - 00;22;21;07
Right. It may happen
00;22;22;11 - 00;22;25;00
when the on zoom job interviews.
00;22;25;00 - 00;22;29;29
There's not an AI
that will listen to the conversation
00;22;30;15 - 00;22;33;09
and things you should.
00;22;33;09 - 00;22;34;28
It's an overlay on your screen.
00;22;34;28 - 00;22;37;28
I mean this is like super dystopian.
00;22;38;11 - 00;22;41;11
And so keep going.
00;22;41;11 - 00;22;44;11
Think of thinking their way through it.
00;22;44;25 - 00;22;47;05
So what does the employer do now?
00;22;47;05 - 00;22;50;07
Do they say, look,
we're only accepting applications
00;22;50;13 - 00;22;53;11
from trusted users.
00;22;53;11 - 00;22;54;27
You want a job?
00;22;54;27 - 00;22;57;19
You know somebody already.
00;22;57;19 - 00;23;00;08
This company and them.
00;23;00;08 - 00;23;03;08
So we know you, the human being.
00;23;03;15 - 00;23;04;17
Is there another answer?
00;23;04;17 - 00;23;08;13
I don't know yet,
but a bunch of these things are happening.
00;23;08;27 - 00;23;11;02
So really, is that right?
00;23;11;02 - 00;23;14;02
A lot more court cases are being filed.
00;23;14;13 - 00;23;17;12
The court could use more AI with it.
00;23;17;12 - 00;23;20;12
I like this job because it
00;23;21;09 - 00;23;23;19
AI and work and jobs.
00;23;23;19 - 00;23;26;25
This is kind of one of the key,
intersections.
00;23;26;28 - 00;23;30;07
There's a lot of questions
and a lot of concern.
00;23;30;17 - 00;23;34;19
And I mean, thinking
like someone is willing to use this tool.
00;23;36;08 - 00;23;37;17
What for
00;23;37;17 - 00;23;40;17
using it on the job and somebody else
they will.
00;23;40;18 - 00;23;44;24
I mean, right, well, faking their job
until they caught.
00;23;45;21 - 00;23;48;11
Yeah. And so what is the remote work?
00;23;48;11 - 00;23;51;24
Problem is they say, you know, that
00;23;52;10 - 00;23;55;19
we don't know how to supervise people in
AI era.
00;23;56;00 - 00;23;57;00
I'm not sure.
00;23;57;00 - 00;23;58;21
Answer is yes.
00;23;58;21 - 00;24;01;23
Let me maybe
ask some more controversial questions.
00;24;02;02 - 00;24;05;12
If they're in meetings remotely like this,
00;24;05;12 - 00;24;08;12
and they're using prompts
to figure out what happens next.
00;24;08;20 - 00;24;11;13
I respond to the emails.
00;24;11;13 - 00;24;14;29
Is it bad, necessarily bad,
00;24;15;06 - 00;24;19;26
and does it for sort of
you and your relationship?
00;24;20;08 - 00;24;25;04
If suddenly your employees go hybrid
AI and human?
00;24;25;17 - 00;24;28;17
I mean, it's bad to the extent fraud,
00;24;28;21 - 00;24;29;00
right?
00;24;29;00 - 00;24;31;26
You are
00;24;31;26 - 00;24;34;14
if you claim you're doing
the work and you're not,
00;24;35;27 - 00;24;38;27
fraud, then probably I
00;24;39;08 - 00;24;42;20
you're lying and you're doing,
00;24;43;14 - 00;24;45;28
you know, if you player the hell
00;24;45;28 - 00;24;49;26
no one and I do this work like I hire you
because I want to do it.
00;24;50;04 - 00;24;53;10
You claim
you are qualified and you're not.
00;24;54;10 - 00;24;58;12
Now, certainly in the future,
we can imagine
00;24;59;19 - 00;25;02;28
this and being so legit,
00;25;04;22 - 00;25;06;22
and that's okay.
00;25;06;22 - 00;25;10;17
But it is, I mean, it
it's it's the fraud that you should be.
00;25;10;27 - 00;25;11;09
Yeah.
00;25;11;09 - 00;25;14;09
So what did in your mind is the right way
00;25;14;16 - 00;25;17;20
to use AI work?
00;25;17;20 - 00;25;20;18
And and,
00;25;20;18 - 00;25;21;26
I mean, right, it
00;25;21;26 - 00;25;26;00
there's no single answer
any of this for you as a POC.
00;25;26;20 - 00;25;29;12
Let's use the I don't know,
00;25;29;12 - 00;25;32;26
maybe this file and
00;25;33;29 - 00;25;36;00
just some questions.
00;25;36;00 - 00;25;40;10
Maybe is the end to, audio editing.
00;25;40;20 - 00;25;45;07
I'm not sure the capabilities are,
but there's no single answer here.
00;25;46;24 - 00;25;47;03
Right?
00;25;47;03 - 00;25;50;03
You know, so, I have been,
00;25;50;09 - 00;25;52;19
trying to have food workers
00;25;52;19 - 00;25;55;19
rights go to through you
00;25;56;08 - 00;25;57;06
and I.
00;25;57;06 - 00;25;59;27
It's mediocre.
00;25;59;27 - 00;26;02;29
You think the easy answer is not
00;26;03;08 - 00;26;04;14
right?
00;26;04;14 - 00;26;07;13
Solution is really good at
00;26;07;23 - 00;26;09;07
being a
00;26;09;07 - 00;26;10;18
hands on.
00;26;10;18 - 00;26;12;24
There's a lot of, There's so many.
00;26;12;24 - 00;26;15;26
You collect examples
of AI making mistakes.
00;26;17;04 - 00;26;21;03
Documents to them are people who present
00;26;22;26 - 00;26;23;27
this on the AI problem.
00;26;23;27 - 00;26;26;02
That's next problem.
00;26;26;02 - 00;26;28;18
But, you know, and doing a
00;26;28;18 - 00;26;30;17
great replication.
00;26;30;17 - 00;26;33;11
I want to follow up on which is this.
00;26;33;11 - 00;26;36;04
And you know, again,
back to the same reason
00;26;36;04 - 00;26;40;26
power feels like is that the best
00;26;40;26 - 00;26;46;11
or getting better with fast or AV or,
you know, the key players.
00;26;46;11 - 00;26;49;11
In this depends not at all given.
00;26;50;06 - 00;26;52;29
So when I think about,
00;26;52;29 - 00;26;53;28
the notion of
00;26;55;20 - 00;26;56;01
that,
00;26;56;01 - 00;26;59;01
there's an enormous number of startups
doing, highly,
00;26;59;20 - 00;27;02;26
this is huge amount of money in, cases.
00;27;03;12 - 00;27;07;24
And it's,
you know, I look through the discoveries
00;27;09;00 - 00;27;14;05
that that happen in these cases
that will search for legal precedent.
00;27;14;28 - 00;27;17;09
You know, a system that watches,
00;27;17;09 - 00;27;20;09
jurors facial expressions, attention.
00;27;20;17 - 00;27;21;24
Right.
00;27;21;24 - 00;27;24;03
So, question to ask.
00;27;24;03 - 00;27;26;24
Will these, on the whole,
00;27;26;24 - 00;27;29;24
make the journey better?
00;27;30;01 - 00;27;33;01
On the whole, the average.
00;27;34;14 - 00;27;37;25
Is that it matters?
00;27;39;09 - 00;27;40;06
The latter.
00;27;40;06 - 00;27;43;06
You have broader access.
00;27;45;06 - 00;27;47;12
Given.
00;27;47;12 - 00;27;49;08
Yeah, I programing assistant.
00;27;49;08 - 00;27;50;16
They're really interesting.
00;27;50;16 - 00;27;53;25
They seem to help the programmers
more than the average programmer
00;27;54;28 - 00;27;57;21
can make better use.
00;27;57;21 - 00;28;00;17
I was just curious.
00;28;00;17 - 00;28;03;17
Is this the best?
00;28;03;20 - 00;28;05;03
The average?
00;28;05;03 - 00;28;07;22
Better using the tool.
00;28;07;22 - 00;28;10;22
It'll be very specific
00;28;10;25 - 00;28;13;21
to the application
00;28;13;21 - 00;28;15;28
one. And you know you know, had
00;28;16;27 - 00;28;17;29
the question
00;28;17;29 - 00;28;20;28
is this going to reinforce the price.
00;28;20;28 - 00;28;23;01
Power is going to democratize it.
00;28;23;01 - 00;28;26;13
And it sounds like complicated answer.
00;28;26;24 - 00;28;29;09
And it might change.
00;28;29;09 - 00;28;32;09
Well you're moving so fast
00;28;32;23 - 00;28;35;09
today in six months or a year.
00;28;35;09 - 00;28;38;09
I mean, that programing is
00;28;38;11 - 00;28;40;13
they've improved so much.
00;28;40;13 - 00;28;43;13
They're proven ways in other ways.
00;28;43;28 - 00;28;47;19
So it's, you know, caution is to
00;28;48;21 - 00;28;52;19
don't assume that what you knew a year
ago is true today.
00;28;53;19 - 00;28;56;17
I think about that. I,
00;28;56;17 - 00;28;59;07
I making,
00;28;59;07 - 00;29;01;14
doing compliance.
00;29;01;14 - 00;29;05;01
And the notion is you can experiment with,
00;29;07;04 - 00;29;08;07
having a look
00;29;08;07 - 00;29;13;20
at environmental compliance documents
and suggesting to the human auditors,
00;29;13;26 - 00;29;16;26
which is the person who go visit
00;29;17;21 - 00;29;20;21
now to what random
00;29;21;10 - 00;29;24;14
30s really good story.
00;29;24;26 - 00;29;27;25
I think human process.
00;29;28;03 - 00;29;28;09
Yeah.
00;29;28;09 - 00;29;31;10
I would love to see AI the order checker
00;29;32;06 - 00;29;34;23
not issue final rulings.
00;29;34;23 - 00;29;37;22
So humans you should actually own these.
00;29;38;01 - 00;29;41;00
Right now
we have computers doing very primitive.
00;29;41;17 - 00;29;41;24
Yeah.
00;29;43;17 - 00;29;46;24
Now of course these ones a
00;29;47;13 - 00;29;50;13
government that one wants
00;29;50;28 - 00;29;51;18
compliance.
00;29;51;18 - 00;29;54;18
And who wants their.
00;29;55;00 - 00;29;57;04
So it doesn't solve the political problem.
00;29;57;04 - 00;30;00;18
And there's the problem as well
that earlier
00;30;00;18 - 00;30;03;18
which is the, the trustworthiness
00;30;04;04 - 00;30;06;25
of the AI in the minds of
00;30;06;25 - 00;30;09;27
ever is being impact decisions.
00;30;10;00 - 00;30;13;00
So I, I, I want to ask you, you know.
00;30;13;14 - 00;30;14;29
How do we.
00;30;14;29 - 00;30;19;16
Make trustworthy
or is this framing is this mindset.
00;30;19;25 - 00;30;23;28
This phrase it's a very hard this my book.
00;30;24;00 - 00;30;27;00
That's why. Why I'm laughing. Right.
00;30;27;02 - 00;30;31;11
And so like, is it making a decision like,
00;30;31;17 - 00;30;34;17
I drive, it's driving a car.
00;30;34;23 - 00;30;37;23
It's a very different trust.
00;30;38;22 - 00;30;40;05
Trust
00;30;40;05 - 00;30;43;05
than an AI
that is recommending restaurant.
00;30;44;01 - 00;30;48;11
I go the cost of getting it
wrong is very different.
00;30;49;08 - 00;30;53;17
AI is generating text is AI has thing.
00;30;54;08 - 00;30;57;05
Just, you know, chest cancer is not
00;30;58;22 - 00;31;01;11
in a lot of predictive systems we use.
00;31;01;11 - 00;31;02;29
Yeah, yeah.
00;31;02;29 - 00;31;05;28
We can measure how good the AI system is.
00;31;06;05 - 00;31;07;22
Diagnosis.
00;31;07;22 - 00;31;10;08
We can compare it. Radiologists.
00;31;10;08 - 00;31;13;08
We can decide which is better
00;31;13;22 - 00;31;14;17
driving cars.
00;31;14;17 - 00;31;17;17
We have records of,
you know, crashes in your misses
00;31;18;29 - 00;31;20;25
the AI context.
00;31;20;25 - 00;31;24;09
It kind of depends on what's for it.
00;31;24;17 - 00;31;28;24
I you know, I mean they 12 last month
00;31;29;20 - 00;31;32;20
it was reckoning like Bdsm
00;31;34;02 - 00;31;34;14
right.
00;31;34;14 - 00;31;37;09
So that's bad right?
00;31;37;09 - 00;31;40;09
We can't imagine not wanting to do that.
00;31;40;11 - 00;31;42;27
But yeah, it's a process
00;31;42;27 - 00;31;46;07
that that humans vet I think.
00;31;46;07 - 00;31;47;08
Sure. Okay.
00;31;47;08 - 00;31;48;06
With interest.
00;31;48;06 - 00;31;51;06
Humans make mistakes all the time.
00;31;51;10 - 00;31;56;14
And we have centuries, millennia of using,
00;31;56;14 - 00;31;59;27
say, double entry bookkeeping, right?
00;32;00;11 - 00;32;03;11
Lots of.
00;32;03;22 - 00;32;06;07
Load up audits
00;32;06;07 - 00;32;09;29
and all these things
deal with the human mistakes.
00;32;11;10 - 00;32;13;29
If I like mistakes, we're good.
00;32;13;29 - 00;32;17;07
We know that if different
00;32;17;17 - 00;32;20;17
mistakes, that is problematic.
00;32;20;22 - 00;32;21;02
Right.
00;32;21;02 - 00;32;24;02
And which route how?
00;32;24;02 - 00;32;28;02
I mean, they look like to ameliorate them.
00;32;29;06 - 00;32;31;02
We have them
00;32;31;02 - 00;32;34;02
and we're still learning all the time.
00;32;34;08 - 00;32;38;00
But everything here
depends on the application.
00;32;39;03 - 00;32;40;27
And the
00;32;40;27 - 00;32;43;02
soil.
00;32;43;02 - 00;32;44;02
Right, is very different.
00;32;44;02 - 00;32;46;12
The AI that is right.
00;32;46;12 - 00;32;49;12
Legislation like.
00;32;51;23 - 00;32;53;25
So with that in mind
00;32;53;25 - 00;32;56;25
is that the earlier is
00;32;57;01 - 00;33;01;24
the responsibility on each of us
00;33;02;16 - 00;33;05;18
to encourage the right
00;33;06;09 - 00;33;09;02
applications and to resist.
00;33;09;02 - 00;33;12;08
You know,
if I can call the wrong types or harmful
00;33;13;10 - 00;33;14;18
AI applications.
00;33;14;18 - 00;33;17;01
So there's this. Right.
00;33;17;01 - 00;33;22;08
Democracy saying a lot of a lot of the
AI is forced upon, you know,
00;33;22;17 - 00;33;26;24
when I used to evaluate
your medical benefits
00;33;27;13 - 00;33;30;10
or when you do search
and there's an AI result
00;33;30;10 - 00;33;34;27
on top of the screen where you were
not one of my eyes being shoved on us.
00;33;35;11 - 00;33;40;17
And we have no choice whether to use,
you know, we use Google Maps.
00;33;40;23 - 00;33;43;17
AI is in this directions.
00;33;44;27 - 00;33;46;26
So choice.
00;33;46;26 - 00;33;51;19
And I think that AI in a crisis
good sense.
00;33;52;07 - 00;33;55;07
That's why
I think we need to really collectively
00;33;56;06 - 00;33;59;25
try to ensure
that they are the right thing.
00;34;01;22 - 00;34;04;20
So that's what I'm glad you did
00;34;04;20 - 00;34;07;20
because that's exactly what I wanted,
which is in
00;34;08;00 - 00;34;10;26
in the world we live in,
00;34;10;26 - 00;34;15;16
it's it's more complicated
than, you know, democracy in your way.
00;34;15;16 - 00;34;16;10
It's smart.
00;34;16;10 - 00;34;22;00
And then we have these market forces and
corporations and there's, you know, voice.
00;34;22;17 - 00;34;24;22
I, return.
00;34;24;22 - 00;34;26;22
And so
00;34;26;22 - 00;34;30;12
for us, you know,
you and me and anyone listening now,
00;34;31;02 - 00;34;34;15
what are the tactics for
00;34;34;24 - 00;34;37;24
steering the world that we want here?
00;34;38;21 - 00;34;41;21
So it took about four things a list.
00;34;41;26 - 00;34;44;24
And I learned about this,
00;34;44;24 - 00;34;47;24
the first is to,
00;34;49;00 - 00;34;52;00
to resist the use of AI in government.
00;34;52;22 - 00;34;57;19
This may well do I do I was wrong.
00;34;58;09 - 00;35;01;11
I mean, at the same time,
00;35;01;14 - 00;35;04;14
we want our we use AI where it can help.
00;35;05;00 - 00;35;07;20
A place where I will help quickly.
00;35;07;20 - 00;35;10;28
We don't want to throw those out
as we resist harmful use.
00;35;11;21 - 00;35;15;19
And I just want to, like, push, like,
this is really good.
00;35;16;00 - 00;35;20;14
They are know there's no excuse
for any government on the planet.
00;35;20;21 - 00;35;24;20
Not for all services in every language.
00;35;24;29 - 00;35;26;10
Other citizens.
00;35;26;10 - 00;35;29;03
We do that. And we should do that.
00;35;31;10 - 00;35;34;10
The third is to reform the AI.
00;35;34;20 - 00;35;38;14
The fact that technology is in the hands
00;35;38;14 - 00;35;42;22
of a few large monopolistic companies.
00;35;43;05 - 00;35;46;12
And and the more we do to,
00;35;47;04 - 00;35;49;29
to change that, the better.
00;35;49;29 - 00;35;51;27
And the fourth is to we call it
00;35;51;27 - 00;35;56;14
a problems with AI democracy
or less AI problems
00;35;56;26 - 00;36;00;10
and more
because problems are exacerbated by.
00;36;00;28 - 00;36;04;13
So the more we can do to make democracy
better,
00;36;04;27 - 00;36;07;27
the better it will be.
00;36;09;10 - 00;36;11;07
With AI.
00;36;11;07 - 00;36;14;12
Now, that's very broad in general.
00;36;14;26 - 00;36;18;19
What we want to happen in the near term.
00;36;19;17 - 00;36;21;16
Become clearer.
00;36;21;16 - 00;36;25;02
Just,
you know, just recently, President Trump's
00;36;25;10 - 00;36;28;10
executive order trying to ban state law.
00;36;28;10 - 00;36;30;15
Yeah, completely.
00;36;30;15 - 00;36;33;15
Nothing to do that.
00;36;33;17 - 00;36;34;26
That is courts.
00;36;34;26 - 00;36;36;17
Who knows what's going to happen?
00;36;36;17 - 00;36;39;17
But the notion of government
00;36;39;17 - 00;36;42;13
chips away actually harmful.
00;36;42;13 - 00;36;46;10
Now we need serious
regulation, which means we need to make
00;36;47;22 - 00;36;49;27
you talk about a political issue.
00;36;49;27 - 00;36;52;25
Talk about what we want
AI and things like,
00;36;52;25 - 00;36;55;25
you know, how to use the
AI that says job loss
00;36;55;27 - 00;36;58;27
of all the things.
00;36;59;16 - 00;37;01;13
That it's what
00;37;01;13 - 00;37;02;09
it does.
00;37;02;09 - 00;37;07;01
And it's it's one of the feels
especially challenge because there's just
00;37;07;25 - 00;37;11;19
so much noise around it right now
from everybody's
00;37;12;08 - 00;37;17;17
eyes on, you know, fear from corporations
trying to push through an agenda here
00;37;18;21 - 00;37;21;00
just on, you know, the noise in your world
00;37;21;00 - 00;37;25;19
you're absorbing from, you know,
AI is any particular
00;37;25;19 - 00;37;28;18
if it's sent to you
00;37;29;25 - 00;37;32;25
getting hammered with that,
they would just ignore.
00;37;33;10 - 00;37;35;25
I think the worst is the arms race,
00;37;35;25 - 00;37;39;18
this metaphor of this between us
and China, that is.
00;37;39;28 - 00;37;42;28
No, I would not like to.
00;37;43;01 - 00;37;45;05
This isn't science work today.
00;37;45;05 - 00;37;47;10
Everything is open, collaborative.
00;37;47;10 - 00;37;51;05
I mean, and this model because, you know,
00;37;52;17 - 00;37;54;17
they were forced to use other chips
00;37;54;17 - 00;37;58;02
and, you know, all the money
they have to actually innovate.
00;37;58;10 - 00;38;01;12
It's a lot of science that
00;38;01;26 - 00;38;03;22
we all learn from that.
00;38;03;22 - 00;38;06;21
And that is the way
this technology is being developed.
00;38;07;00 - 00;38;08;28
I think the, the,
00;38;08;28 - 00;38;11;28
the model serves now.
00;38;14;02 - 00;38;16;13
Because it allows us to say that,
you know,
00;38;16;13 - 00;38;19;17
when you don't regulate,
you lose the arms race.
00;38;20;27 - 00;38;23;27
So I am I, I don't like that at all.
00;38;24;18 - 00;38;27;18
That is probably the worst thing
that's out.
00;38;28;02 - 00;38;30;07
Yeah, well, it's I,
00;38;30;07 - 00;38;33;14
I'm inclined to agree with you and it's,
you know, it's it's always.
00;38;33;24 - 00;38;34;28
I'm sorry.
00;38;34;28 - 00;38;37;19
So said for less regulation
00;38;37;19 - 00;38;40;20
or for give the big money need
00;38;40;24 - 00;38;43;24
even finance the right call.
00;38;44;13 - 00;38;46;09
So that's the yeah.
00;38;46;09 - 00;38;48;09
You know,
let's let it on its head because we,
00;38;49;11 - 00;38;50;21
you know, the,
00;38;50;21 - 00;38;53;21
the the both the you know
00;38;54;24 - 00;38;58;11
this if you're,
if you're a business leader or,
00;38;58;24 - 00;39;03;00
you know, a leader within government,
if you're running the organization,
00;39;03;00 - 00;39;06;00
you're looking at, you know, how
00;39;06;03 - 00;39;09;08
your organization can make use of AI.
00;39;09;14 - 00;39;12;17
You know, I, I'm sure there's going to be
a flavor of your answer.
00;39;12;25 - 00;39;15;00
Depends on this.
00;39;15;00 - 00;39;18;06
A lot of, a lot of conversations
we've had so far.
00;39;18;10 - 00;39;22;09
But are there polls or lenses
that answer that question?
00;39;22;09 - 00;39;24;26
Well, if you were in that position.
00;39;24;26 - 00;39;27;21
I mean, there's a couple of things
you think that,
00;39;27;21 - 00;39;32;04
it was only some dance around or one place
00;39;33;04 - 00;39;36;04
that's really an important
00;39;36;04 - 00;39;39;04
technology or how does it augment
00;39;39;22 - 00;39;41;28
humans? How much does replace humans?
00;39;41;28 - 00;39;44;17
And here power matters a lot.
00;39;44;17 - 00;39;49;02
So I, a lot of, use of AI in that fashion
00;39;49;16 - 00;39;52;19
in being that, that and I do this.
00;39;52;28 - 00;39;54;20
And if we are here,
00;39;55;23 - 00;39;58;04
right, I okay.
00;39;58;04 - 00;40;02;11
Now not enough, but we are no doctor.
00;40;03;10 - 00;40;05;01
But. And way better.
00;40;05;01 - 00;40;08;01
Way better than no doctor
00;40;08;06 - 00;40;08;29
or here.
00;40;08;29 - 00;40;11;20
You can imagine it'll replace doctors.
00;40;11;20 - 00;40;14;14
I think doctors replace
00;40;14;14 - 00;40;17;13
so. So, you know, there it is valuable.
00;40;18;01 - 00;40;22;26
Here I was at a,
I mentioned conference wish,
00;40;23;23 - 00;40;26;01
and one hospital
00;40;26;01 - 00;40;28;02
is using,
00;40;28;02 - 00;40;28;28
zero.
00;40;28;28 - 00;40;33;13
So, you know, this patient
come in after this doc,
00;40;34;19 - 00;40;37;19
and they found out that the patient
00;40;37;29 - 00;40;40;23
had an emergency room.
00;40;40;23 - 00;40;41;28
That's right.
00;40;41;28 - 00;40;43;05
They forget things.
00;40;43;05 - 00;40;46;05
They they're sloppy because
00;40;46;14 - 00;40;48;24
crisis. So they're experiments.
00;40;48;24 - 00;40;51;24
And then I listen
00;40;52;09 - 00;40;55;23
to the emergency room and all this reports
00;40;56;12 - 00;41;00;02
that doctors review, sign off the patient.
00;41;00;12 - 00;41;03;12
This is way better.
00;41;03;19 - 00;41;06;16
It's so much love.
00;41;06;16 - 00;41;09;02
They can do what they do best.
00;41;09;02 - 00;41;11;17
And and the AI helps in this,
00;41;13;08 - 00;41;16;08
pressure.
00;41;16;10 - 00;41;18;12
So, you know, again
00;41;18;12 - 00;41;21;13
an occasion, the experiment.
00;41;23;02 - 00;41;26;28
You know, you're doing a lot of the things
I hear about.
00;41;26;28 - 00;41;29;28
They are people who never used,
00;41;30;11 - 00;41;33;06
you know, terrible.
00;41;33;06 - 00;41;35;14
And then right away,
00;41;35;14 - 00;41;38;09
the so you all the time and you decision
00;41;38;09 - 00;41;42;07
you make suitability will you know that
00;41;43;10 - 00;41;46;10
it'll be different the good
00;41;47;05 - 00;41;49;09
the really pay attention
00;41;49;09 - 00;41;52;16
and it is very unique and notion of
00;41;53;17 - 00;41;56;04
or matters
00;41;56;04 - 00;41;58;19
accuracy is accurate enough
00;41;58;19 - 00;42;02;13
compared to what trust is trustworthy
enough
00;42;03;03 - 00;42;06;03
to what?
00;42;06;21 - 00;42;09;12
Power has power.
00;42;09;12 - 00;42;12;10
I like that, I like how
00;42;12;10 - 00;42;17;05
all, you know, really
and really different lenses that can help,
00;42;17;22 - 00;42;21;12
you know, leaders are helping
and figure out is this going to be,
00;42;21;27 - 00;42;26;06
you know,
is this going to you know, plus had a
00;42;26;16 - 00;42;30;06
and I think, you know to your point
the the replacing
00;42;30;24 - 00;42;33;25
I'm worried
a lot of the replace would lead
00;42;33;25 - 00;42;38;25
to a worse outcomes and be you know
one of the themes that we're seeing
00;42;38;25 - 00;42;41;25
and I'm sure you do is this,
00;42;41;28 - 00;42;44;28
you know sort of a backlash against AI.
00;42;45;06 - 00;42;48;05
This you know, net negative jobs
00;42;48;10 - 00;42;50;27
create slob makes everything worse.
00;42;50;27 - 00;42;52;27
And and I'm worried that,
00;42;52;27 - 00;42;57;10
you know, corporations
are you know, fanning these flames.
00;42;58;16 - 00;43;01;07
You know so so yes
00;43;01;07 - 00;43;04;07
I think there's that
00;43;05;18 - 00;43;08;07
a lot of this is, is lesson
00;43;08;07 - 00;43;11;07
one was the system we're in,
00;43;13;09 - 00;43;15;21
there is going to be jobs,
00;43;15;21 - 00;43;18;26
create change sometimes, right?
00;43;19;04 - 00;43;22;12
AI is better than just remake, right?
00;43;22;22 - 00;43;23;07
Totally.
00;43;23;07 - 00;43;25;18
And I don't know, realities.
00;43;25;18 - 00;43;27;15
I want the most accurate straight.
00;43;27;15 - 00;43;30;13
I know that's all I care about.
00;43;30;13 - 00;43;33;25
Real different than, you know care.
00;43;34;08 - 00;43;35;19
Negotiate. Right.
00;43;35;19 - 00;43;41;06
We can imagine doing this, but
maybe we want the human for two reasons.
00;43;41;23 - 00;43;45;26
This be change over Chinese culture.
00;43;46;10 - 00;43;48;18
So never say never.
00;43;48;18 - 00;43;52;14
But this is very, transitionary right now.
00;43;53;14 - 00;43;56;06
I think this is a slightly different
direction.
00;43;56;06 - 00;43;59;09
Capitalism
come up a few times and I'm curious.
00;43;59;26 - 00;44;02;21
This is an area
you've talked about to me the last,
00;44;02;21 - 00;44;07;07
the last big technology
that promised there was this little is,
00;44;08;16 - 00;44;08;28
thing.
00;44;08;28 - 00;44;11;28
And this is not promised to be fair.
00;44;12;06 - 00;44;13;14
Sure, sure, sure.
00;44;13;14 - 00;44;14;05
All right.
00;44;14;05 - 00;44;17;05
Yeah, I agree, I agree.
00;44;17;09 - 00;44;20;01
It it probably won't, but
00;44;20;01 - 00;44;23;01
it had a lot around that was
00;44;23;16 - 00;44;25;16
that that was for blockchain.
00;44;25;16 - 00;44;30;23
I was, you know, decentralized power
to have these decentralized ledgers
00;44;31;12 - 00;44;33;28
to keep
00;44;33;28 - 00;44;35;25
it has really that way.
00;44;35;25 - 00;44;38;15
There's still lots of blockchain.
00;44;38;15 - 00;44;40;27
You know, my you you know.
00;44;40;27 - 00;44;42;21
I, I sure do.
00;44;42;21 - 00;44;43;13
I, I didn't.
00;44;43;13 - 00;44;46;13
Like blockchain in the history of ever.
00;44;46;24 - 00;44;47;26
Oh, yes.
00;44;47;26 - 00;44;50;10
I know, I know, I, I'm like yes.
00;44;50;10 - 00;44;53;21
So I know that and I
I mean two part question.
00;44;53;29 - 00;44;57;08
The first one is for listeners
who don't know your position,
00;44;57;17 - 00;45;01;24
can you share a little bit about,
you know, your like, doesn't you
00;45;02;19 - 00;45;05;04
or your, you know, your,
00;45;05;04 - 00;45;08;03
positioning blockchain and if there's any,
00;45;08;03 - 00;45;12;16
you know, lessons from blockchain
that to how we talk about.
00;45;13;17 - 00;45;14;03
Yeah.
00;45;14;03 - 00;45;17;12
I mean really the parents morons
that we knew
00;45;17;12 - 00;45;20;12
that already.
00;45;21;02 - 00;45;23;09
I mean, honestly,
00;45;23;09 - 00;45;27;14
blockchain is a long essay and explains
why it is not
00;45;27;23 - 00;45;31;09
anonymous, is not decentralized,
is not any of the things
00;45;31;25 - 00;45;35;04
the why they get security worse
in every way.
00;45;35;13 - 00;45;38;00
Pretty much all blockchain
00;45;38;00 - 00;45;40;19
are like blockchain
00;45;40;19 - 00;45;44;23
is only their their ranking thing,
which is other way.
00;45;45;07 - 00;45;46;18
Blockchain.
00;45;46;18 - 00;45;48;16
It is right.
00;45;48;16 - 00;45;50;19
It's good.
00;45;50;19 - 00;45;53;27
So, you know,
I don't want to spend playing
00;45;55;11 - 00;45;56;04
the link.
00;45;56;04 - 00;45;58;14
That is where Right.
00;45;58;14 - 00;46;02;01
I mean, this doesn't mean going away
exists.
00;46;02;17 - 00;46;05;17
It's bad, you know, the wild cat
00;46;05;17 - 00;46;09;18
and frauds and money laundering,
all the things it does are bad.
00;46;09;26 - 00;46;11;18
They're not going away.
00;46;11;18 - 00;46;12;07
It is.
00;46;12;07 - 00;46;13;29
It is
00;46;13;29 - 00;46;16;26
the regulated technology in some ways.
00;46;16;26 - 00;46;18;08
Other ways.
00;46;18;08 - 00;46;21;17
The US going on right now,
you know, from here and, you know,
00;46;21;25 - 00;46;24;23
you know, grass is, is so ginormous,
00;46;25;28 - 00;46;27;19
can't be ignored.
00;46;27;19 - 00;46;32;10
But ideally, we strongly regulate
the interface between cryptocurrency
00;46;32;10 - 00;46;36;01
and the conventional, the stream
that's like the USA.
00;46;36;01 - 00;46;36;24
It's going to be bad.
00;46;36;24 - 00;46;39;24
I mean, a lot of people
will lose a lot of money because this,
00;46;41;09 - 00;46;43;29
so the way things are going.
00;46;43;29 - 00;46;44;27
But I get it.
00;46;44;27 - 00;46;47;20
It's so useful for fraud.
00;46;47;20 - 00;46;50;18
For one year.
00;46;50;18 - 00;46;54;03
And that's, you know,
that's that's my position as well.
00;46;54;10 - 00;46;55;28
And I know a lot.
00;46;55;28 - 00;46;58;05
Not controversial.
00;46;58;05 - 00;47;00;12
I mean, those of us, you know,
00;47;00;12 - 00;47;02;23
the saying the beginning.
00;47;02;23 - 00;47;05;13
Well, and, you know, these
00;47;05;13 - 00;47;08;13
we have this technology
that was insanely hyped,
00;47;09;09 - 00;47;12;22
a lot of marketers saying that, you know,
you have to use this
00;47;12;22 - 00;47;15;22
method to change everything. And,
00;47;16;15 - 00;47;20;02
if you're like me, it's
very difficult for me to find,
00;47;21;23 - 00;47;23;20
a legitimate
00;47;23;20 - 00;47;27;07
use case for, you know, bitcoin for years.
00;47;28;08 - 00;47;31;19
And unfortunately,
yeah, I mean, I wish it was there isn't.
00;47;32;13 - 00;47;35;08
It's it's so
00;47;35;08 - 00;47;38;17
with that in mind,
given that we went through this cycle,
00;47;39;23 - 00;47;42;15
are there lessons learned,
what we're seeing with with
00;47;42;15 - 00;47;45;15
AI and how.
00;47;45;22 - 00;47;47;25
There is a lot of the hype.
00;47;47;25 - 00;47;48;24
This is it.
00;47;48;24 - 00;47;54;02
These companies are burning money
at a rate never been seen on the planet.
00;47;54;14 - 00;47;56;28
Generally,
what kind of revenue stream is it?
00;47;56;28 - 00;47;58;27
Is you have. Right.
00;47;58;27 - 00;48;00;16
And I think
00;48;00;16 - 00;48;03;16
that that, you know, the I can't say
00;48;03;16 - 00;48;06;15
but they're, they're underneath this
00;48;06;15 - 00;48;09;20
and this is going to be more like the,
the.com bubble
00;48;10;20 - 00;48;16;01
where, you know, the initial burst,
but the real value was there.
00;48;16;01 - 00;48;18;08
And, you know, it was slower.
00;48;20;23 - 00;48;23;23
But, you know, but but, you know,
it didn't happen.
00;48;24;08 - 00;48;26;17
So let me, you know,
let me ask you a question.
00;48;26;17 - 00;48;29;12
Just hang on.
00;48;29;12 - 00;48;31;27
You know, security, you know,
00;48;31;27 - 00;48;34;04
you're, I think, right?
00;48;34;04 - 00;48;37;18
You cybersecurity guy, guy.
00;48;37;24 - 00;48;40;24
And, you know, I certainly
has implications for this, right?
00;48;40;24 - 00;48;43;24
It's it's helping if there's hackers.
00;48;45;17 - 00;48;47;12
Obviously,
00;48;47;12 - 00;48;49;25
nuance in terms of who helps more.
00;48;49;25 - 00;48;53;04
But let me,
let me let me frame the question this way.
00;48;55;03 - 00;48;58;29
Full cybersecurity for AI teams.
00;48;59;25 - 00;49;03;18
Do you think that I acknowledge
that in the next years
00;49;03;27 - 00;49;06;27
is going to shrink them or grow them?
00;49;08;12 - 00;49;09;13
Probably.
00;49;09;13 - 00;49;13;09
So, you going to see every company has
00;49;13;09 - 00;49;16;08
a, a surge in AI strategy?
00;49;17;23 - 00;49;19;15
We're seeing this thing
00;49;19;15 - 00;49;22;15
of the past six months, really recently.
00;49;22;25 - 00;49;27;03
AI is more well, what I mean, except
00;49;28;09 - 00;49;31;09
for the warning them,
00;49;31;12 - 00;49;34;12
lots of lots of recent,
00;49;34;20 - 00;49;37;20
attackers are using them in therapy.
00;49;37;20 - 00;49;40;10
In the report about,
00;49;40;10 - 00;49;43;10
criminals. And,
00;49;43;23 - 00;49;47;21
their system is better than I thought.
00;49;48;19 - 00;49;51;19
And so that is making it worse.
00;49;52;04 - 00;49;54;27
So I think it's new for a while.
00;49;54;27 - 00;49;57;27
So when this is, it makes these attacks
00;49;57;29 - 00;50;00;29
available to people.
00;50;01;21 - 00;50;05;05
Police can use them at the same time.
00;50;05;05 - 00;50;08;11
I mean, use the defense to,
00;50;08;29 - 00;50;13;15
find, and, and kick out attackers there.
00;50;13;15 - 00;50;17;05
I think the, the overall
and then the attack
00;50;17;07 - 00;50;20;07
your speech they do speech is enormous.
00;50;20;09 - 00;50;22;26
So so that would be good.
00;50;22;26 - 00;50;24;18
Vulnerability finding.
00;50;24;18 - 00;50;27;18
They're getting better
at finding the shortcut again.
00;50;27;22 - 00;50;31;08
The attacker
use them when the defender uses
00;50;31;08 - 00;50;34;08
them voluntarily disappears.
00;50;34;09 - 00;50;37;09
So they're also then you will have the,
00;50;37;29 - 00;50;40;19
the edge in the, in the, in the mid term.
00;50;40;19 - 00;50;44;02
Is there any existing,
you know, full time.
00;50;46;25 - 00;50;49;01
We're seeing AI being used
00;50;49;01 - 00;50;52;01
in, you know, hacking.
00;50;52;24 - 00;50;54;19
So the net run in the future,
00;50;54;19 - 00;50;57;19
some organic continues to evolve
00;50;58;04 - 00;51;01;15
in real time, sort of at the level
00;51;01;27 - 00;51;04;16
will require rewriting your, my system.
00;51;04;16 - 00;51;06;01
So we haven't. We haven't yet.
00;51;06;01 - 00;51;08;19
So I think.
00;51;08;19 - 00;51;10;13
But near-term
00;51;10;13 - 00;51;13;20
hackers are using to their advantage
long term.
00;51;13;29 - 00;51;16;29
I think the, defender.
00;51;18;12 - 00;51;19;16
Will be more.
00;51;19;16 - 00;51;20;11
Well, that's.
00;51;20;11 - 00;51;21;20
That's a really interesting one.
00;51;21;20 - 00;51;24;15
And, you know, one of the
00;51;24;15 - 00;51;27;15
and you see, otherwise,
00;51;27;23 - 00;51;29;20
hitting the defenders, patching
00;51;29;20 - 00;51;32;20
real time security systems
00;51;33;07 - 00;51;35;07
before and and change. Yeah.
00;51;35;07 - 00;51;37;14
I don't know if we can make them
00;51;37;14 - 00;51;39;25
for something close to it, but, you know.
00;51;39;25 - 00;51;44;24
You know, I mean,
I think we really make them a lot safer.
00;51;44;24 - 00;51;48;05
And I think I handled it right.
00;51;49;08 - 00;51;51;21
So they added, in that world,
00;51;52;23 - 00;51;55;23
does that sort of talk attack
00;51;56;16 - 00;52;00;12
even more heavily
toward human vulnerabilities?
00;52;00;22 - 00;52;03;22
System vulnerabilities are are
00;52;04;09 - 00;52;05;12
yeah. We are. Yeah.
00;52;05;12 - 00;52;08;19
I used to write
00;52;10;01 - 00;52;12;06
and of course, I mean there are better.
00;52;12;06 - 00;52;13;13
Yeah. You know, there.
00;52;13;13 - 00;52;15;26
Yeah.
00;52;15;26 - 00;52;19;12
But I know one and build an AI system
00;52;20;05 - 00;52;23;19
that sits on your computer,
your phone, what thing?
00;52;23;25 - 00;52;26;13
And when you, when you're being sent
00;52;26;13 - 00;52;29;15
or really warnings
your parents being sent,
00;52;29;27 - 00;52;32;27
you and.
00;52;34;08 - 00;52;35;17
I think a great idea.
00;52;35;17 - 00;52;36;07
Right.
00;52;36;07 - 00;52;40;15
If I do that privacy invasion
on the object.
00;52;41;13 - 00;52;42;01
Right.
00;52;42;01 - 00;52;45;17
Because it's very humane,
a lot like the a small
00;52;45;24 - 00;52;48;23
or medium like,
00;52;48;23 - 00;52;50;05
that'll be great.
00;52;50;05 - 00;52;53;05
So here we have the same technology,
00;52;53;22 - 00;52;56;05
you know, empowering
00;52;56;05 - 00;52;58;05
question comes on top.
00;52;58;05 - 00;53;00;28
And it's really hard to know.
00;53;00;28 - 00;53;05;04
Well and coming back to,
you know, something I asked earlier about
00;53;05;28 - 00;53;08;28
and you sort of said, no, they're not
they're not get smaller.
00;53;09;00 - 00;53;10;29
It sounds like if I'm reading, it means
00;53;12;00 - 00;53;15;26
they're going to augment internet deliver.
00;53;16;17 - 00;53;19;06
In some cases replace.
00;53;19;06 - 00;53;19;12
Yeah.
00;53;19;12 - 00;53;22;22
I think some of the automatic caching
might happen without human intervention.
00;53;23;11 - 00;53;25;00
Right, right.
00;53;25;00 - 00;53;27;17
And that's true. Right. Right.
00;53;27;17 - 00;53;28;22
You know I set it up.
00;53;28;22 - 00;53;31;22
They have patches
and then I have to reboot
00;53;32;03 - 00;53;35;03
and then when I'm in person.
00;53;35;21 - 00;53;38;14
But I think you see more automation
00;53;38;14 - 00;53;41;12
where a lot of the is replaced.
00;53;41;12 - 00;53;44;21
I, I think in other other areas
00;53;45;04 - 00;53;48;05
against humans who doing investigation
00;53;48;05 - 00;53;51;05
or human sort.
00;53;51;14 - 00;53;52;21
Of someone you know,
00;53;52;21 - 00;53;56;06
someone who's getting into cybersecurity
in 2026.
00;53;56;16 - 00;54;01;05
I mean, first of all, the clear
the field or just work feels great fun.
00;54;01;05 - 00;54;04;05
I mean, I love I would never
00;54;04;29 - 00;54;07;02
yeah, I'm doing great.
00;54;07;02 - 00;54;11;23
So if I give them in this sort of
I, you know, fueled worlds or.
00;54;14;07 - 00;54;15;15
Tools.
00;54;15;15 - 00;54;18;26
But the tools behavior in your career
you need to learn other
00;54;19;22 - 00;54;22;22
maybe for every profession
00;54;23;11 - 00;54;24;21
grows for.
00;54;24;21 - 00;54;27;21
Is there anything I mean note
00;54;27;27 - 00;54;30;27
you think touch in the next few years.
00;54;31;23 - 00;54;34;09
What timeframe?
00;54;34;09 - 00;54;36;22
Call it five years.
00;54;36;22 - 00;54;39;21
Oh, a lot
00;54;40;04 - 00;54;42;19
for sure.
00;54;42;19 - 00;54;43;09
Yeah.
00;54;43;09 - 00;54;44;17
I don't know.
00;54;44;17 - 00;54;47;17
Touch is a very low bar.
00;54;48;12 - 00;54;48;25
Right.
00;54;48;25 - 00;54;52;22
So a lot of the five years
transform society
00;54;54;06 - 00;54;58;13
say ever ever now the universe well knows.
00;54;59;18 - 00;55;04;18
Well that's you know that was the touch
and transform very different.
00;55;05;02 - 00;55;08;06
Touches affect change.
00;55;10;25 - 00;55;11;08
That's right.
00;55;11;08 - 00;55;15;05
And so I'm thinking still with you know
doing that on, you know,
00;55;15;18 - 00;55;19;08
any field
where I should be learning more, I.
00;55;19;26 - 00;55;21;21
I don't think so.
00;55;21;21 - 00;55;24;01
I, I was at a
00;55;24;01 - 00;55;26;13
ago where classes
00;55;26;13 - 00;55;29;20
talked about
how I was being used in this field.
00;55;30;17 - 00;55;31;13
I was surprised.
00;55;33;14 - 00;55;36;04
When texts.
00;55;36;04 - 00;55;39;07
I have a lot of data analysis.
00;55;39;27 - 00;55;42;14
Right. There's a lot of that happens.
00;55;42;14 - 00;55;45;06
So. You know, just sort.
00;55;45;06 - 00;55;49;04
Bruce, you know,
if I can, you know, it's like
00;55;50;07 - 00;55;53;02
when you pull out the model,
00;55;53;02 - 00;55;57;11
look, a few years,
I can see a lot of things,
00;55;57;20 - 00;56;03;09
but transforming a handful of things,
maybe farther afield in Vermont,
00;56;03;22 - 00;56;06;22
sort of your top level,
you know, outlook for what we're.
00;56;07;23 - 00;56;08;25
So there a long time.
00;56;08;25 - 00;56;11;25
Remember that, I think they see a lot of
00;56;12;18 - 00;56;15;21
as people now, this is important
00;56;16;01 - 00;56;19;19
for for individual student
you to do their homework.
00;56;19;28 - 00;56;22;27
You know, they do their education.
00;56;22;27 - 00;56;27;29
They get their like if a legislator
was used to help a bill three.
00;56;28;20 - 00;56;29;05
Right.
00;56;29;05 - 00;56;34;12
People were using it
for individual, assistance in all areas
00;56;35;22 - 00;56;36;03
and then
00;56;36;03 - 00;56;40;21
slowly do good things like,
you know, self-driving
00;56;40;21 - 00;56;43;27
cars, which really requires
like to think about it.
00;56;43;28 - 00;56;46;28
And that's happening in the United States.
00;56;47;09 - 00;56;50;09
This is an AI system that is driving cars.
00;56;50;10 - 00;56;53;10
And, you know, generations
00;56;53;19 - 00;56;58;12
have changed the way we know each other.
00;56;59;22 - 00;57;02;25
And, you know, that is largely AI driven.
00;57;03;27 - 00;57;06;27
So, you know, it's a secular effect
00;57;06;27 - 00;57;09;27
that are hard to predict,
00;57;10;00 - 00;57;12;18
you know, for sure changes.
00;57;12;18 - 00;57;15;25
It's much harder is, technology changes.
00;57;16;11 - 00;57;19;11
And then when they for sure interact
with each other
00;57;19;18 - 00;57;23;17
make further changes because everything
is changing a little bit.
00;57;24;07 - 00;57;28;23
There are interactions,
a lot of follow on changes.
00;57;29;12 - 00;57;31;20
So one last question for you.
00;57;31;20 - 00;57;33;22
You know we're trying to keep positive.
00;57;33;22 - 00;57;36;07
You know
there's so many things you on the horizon.
00;57;36;07 - 00;57;39;28
Is there one night around this technology
00;57;39;28 - 00;57;43;13
or around, you know, the world and beyond.
00;57;43;27 - 00;57;45;12
Right. The power of the
00;57;46;28 - 00;57;48;25
is is awesome.
00;57;48;25 - 00;57;51;27
I mean, politics is useful.
00;57;51;27 - 00;57;56;03
The United States is a lot
of the inequality that we have.
00;57;57;01 - 00;58;02;14
We hear the the power, the police power
and they're using for their own profit.
00;58;02;25 - 00;58;06;00
Now, right now,
this is not an eye problem.
00;58;06;13 - 00;58;07;24
This is a society problem.
00;58;07;24 - 00;58;10;04
But it is the problem is real important.
00;58;10;04 - 00;58;13;14
You know, straight the problem,
00;58;14;05 - 00;58;17;06
the science and the problems with right.
00;58;17;07 - 00;58;20;07
The market based AI we are using
00;58;20;07 - 00;58;23;07
because the choices we make.
00;58;24;12 - 00;58;27;08
I think I think that's pretty well
00;58;27;08 - 00;58;28;26
it wraps up for me.
00;58;28;26 - 00;58;32;16
You know,
one of the themes that I had in the show,
00;58;33;13 - 00;58;36;11
the public.
00;58;36;11 - 00;58;39;08
But inevitably we find there's arrows
00;58;39;08 - 00;58;42;08
back into political navigation.
00;58;42;19 - 00;58;44;28
Based on the political
00;58;44;28 - 00;58;47;21
and economic environment
in which is built.
00;58;47;21 - 00;58;49;10
You can't do
00;58;50;26 - 00;58;51;28
decline.
00;58;51;28 - 00;58;56;17
But that I know, like
where the problem is in each instance.
00;58;57;02 - 00;59;00;04
I mean, the fact that I,
00;59;00;07 - 00;59;02;13
is obsequious.
00;59;02;13 - 00;59;05;20
The I think rather than saying,
I don't know,
00;59;05;26 - 00;59;09;29
those are the liberal choices,
but that is not
00;59;10;19 - 00;59;13;08
that is the market.
00;59;13;08 - 00;59;16;08
Well, that, and I fantastic note.
00;59;16;10 - 00;59;20;13
And on first, Bruce, I wanted to thank you
for joining us today.
00;59;20;18 - 00;59;23;18
It's been really great. Thank you.
00;59;23;20 - 00;59;25;11
Thank you.
00;59;25;11 - 00;59;29;27
If you work in IT, Infotech Research Group
is a name you need to know
00;59;29;27 - 00;59;31;13
no matter what your needs are.
00;59;31;15 - 00;59;33;01
Infotech has you covered.
00;59;33;01 - 00;59;35;03
AI Strategy? Covered.
00;59;35;03 - 00;59;37;20
Disaster recovery? Covered.
00;59;37;20 - 00;59;40;06
Vendor negotiation? Covered.
00;59;40;06 - 00;59;42;28
Infotech supports you with the best-practice research
00;59;42;28 - 00;59;45;00
and a team of analysts standing by.
00;59;45;00 - 00;59;47;25
ready to help you tackle your toughest challenges.
00;59;47;25 - 00;59;49;02
Check it out at the link below
00;59;49;02 - 00;59;50;23
And don't forget to like and subscribe.
The Next Industrial Revolution Is Already Here
Digital Disruption is where leaders and experts share their insights on using technology to build the organizations of the future. As intelligent technologies reshape our lives and our livelihoods, we speak with the thinkers and the doers who will help us predict and harness this disruption.
Our Guest Josh Browder Discusses
The World's First AI Lawyer: Josh Browder on the Anti-Scam AI You Need to Know
In this episode of Digital Disruption, Geoff is joined by Josh Browder, founder of DoNotPay, to discuss how AI in law is transforming the legal landscape and driving real-world innovation. From the impact of artificial intelligence on consumer rights, the legal system, and everyday life, this episode explores how AI is being used to help people push back against predatory business practices.
Our Guest Bruce Schneier Discusses
Is AI a Threat to Democracy? Bruce Schneier Explains What Comes Next
Bruce joins Geoff to explore one of the most important questions: Will AI strengthen democracy or quietly undermine it? From government services and public policy to cybersecurity, labor, and the justice system, Bruce breaks down how artificial intelligence acts as a power-magnifying technology, amplifying both the best and worst intentions of those who use it. Drawing from real-world examples in Germany, Brazil, Japan, France, Canada, and the United States, this conversation examines where AI is already reshaping democratic institutions. Bruce also outlines four concrete strategies for steering AI toward democratic outcomes: resisting harmful uses, reforming the AI ecosystem, responsibly deploying AI where it helps, and fixing the underlying societal problems AI tends to amplify.
Our Guest Walter Pasquarelli Discusses
Robots, AI Ethics, and the End of Thinking: Top Researcher on the State of AI in 2026
On this episode of Digital Disruption, we’re joined by internationally recognized advisor, speaker, and researcher on AI strategy, Walter Pasquarelli.
Our Guest Nina Schick Discusses
The AI World Order: Nina Schick Reveals How AI Is Reshaping Global Order
On this episode of Digital Disruption, Nina Schick, geopolitical analyst and one of the world’s leading voices on AI, explains why we are entering the Age of Intelligence, where nonbiological intelligence may soon rival or surpass human intelligence, reshaping economics, warfare, democracy, labor, and global power structures.