【hadoop3.2.1】windows10 docker学习环境创建,windows和容器bridge模式下联网,测试例子

本地机器:windows10
虚拟机:centOS7.9
docker创建hadoop学习环境

1.创建docker镜像(hadoop)

下载centos镜像: docker pull centos
启动一个容器:docker run -td --name base -i centos bash
进入容器,安装jdk及hadoop,方法和主机一样
容器中安装ssh:yum install openssh-server openssh-clients
设置免密登录: ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
保存容器修改:docker commit base hadoop:4

docker安装java

docker安装java

  1. 下载java:java
  2. id获取:docker ps
  3. java复制到虚拟机中:5016972d8541是id
    docker cp C:\Users\wxl\Downloads\jdk-8u333-linux-x64.tar.gz 5016972d8541:/software
    
  4. 解压tar -zxvf jdk-8u65-linux-x64.tar.gz
  5. 环境变量

2. 网络问题和创建容器

macos
windows

  1. hadoop镜像:docker pull registry.cn-hangzhou.aliyuncs.com/san-namespaces/san-registry:hadoop-3.2.1
  2. 创建自定义网络
    docker network create --subnet=192.168.0.0/16 -d nat mynetwork# error 说没有nat?
    docker network create --subnet=192.168.0.0/16 -d bridge mynetwork
    docker network ls
    # NETWORK ID     NAME      DRIVER    SCOPE
    # 62710c6cefa1   bridge    bridge    local #默认连这个网络
    # 5a81d1387e99   host      host      local
    # 79d021dcdc7f   none      null      local
    
  3. 创建容器
    docker run -h hadoop-master --name hadoop-master -p 8088:8088 -p 9870:9870 -p 9868:9868 -p 1022:22 -itd --privileged=true --net mynetwork --ip 192.168.0.4 4eba2c1559c7 /usr/sbin/init
    docker run -h hadoop-slave1 --name hadoop-slave1 -itd  --privileged=true --net mynetwork -p 10221:22 --ip 192.168.0.5 4eba2c1559c7 /usr/sbin/init
    docker run -h hadoop-slave2 --name hadoop-slave2 -itd  --privileged=true --net mynetwork -p 10222:22  --ip 192.168.0.6 4eba2c1559c7 /usr/sbin/init
    
https://blog.csdn.net/qq_42511420/article/details/124926620 4. 修改密码`passwd root`
5. cat /etc/hosts> 192.168.0.4     hadoop-master
192.168.0.5     hadoop-slave1
192.168.0.6     hadoop-slave2重启时自动添加:`cat ~/.bashrc`> :>/etc/hosts cat >>/etc/hosts<<EOF
> 127.0.0.1  localhost
> 192.168.0.4   hadoop-master
> 192.168.0.5   hadoop-slave1
> 192.168.0.6   hadoop-slave2 EOF
## 配置机器间免密登陆
1. 修改ssh配置
/etc/ssh/sshd_config文件中开启:```pythonPubkeyAuthentication yes```
2. 重启ssh服务```pythonsystemctl restart sshd.service```
3. 创建ssh key```pythonssh-keygen -t rsa```
连续回车,最终会在/root/.ssh目录下生成id_rsa和 id_rsa.pub文件。
上述操作每台机器执行一次(1-3)4. 合并公钥
登陆hadoop-master,在/root/.ssh目录下执行以下命令,将a0的公钥追加到authorized_keys文件中(如果authorized_keys不存在会新建):```pythoncat id_rsa.pub>> authorized_keys```将hadoop-slave1的公钥加到hadoop-master中。```pythonssh root@192.168.0.5 cat ~/.ssh/id_rsa.pub>> authorized_keys```输入hadoop-slave1的密码即可拷贝公钥到hadoop-master的authorized_keys中。同上拷贝hadoop-slave2的公钥到hadoop-master中。此时vim /root/.ssh/authorized_keys 如下图所示:![在这里插入图片描述](https://img-blog.csdnimg.cn/4292ab36bf104942be2a19fe05d96b81.png)将hadoop-master中的公钥发送至两台从节点。完成免密登陆配置。
如果authorized_keys不生效,再使用:`ssh-copy-id -i root@ip_address`## 配置hadoop
hadoop安装目录:/opt/software/hadoop/hadoop-3.2.1
java目录:/opt/software/java/jdk1.8.0_181
版本:3.2.1
$HADOOP_HOME/etc/hadoop> 在$HADOOP_HOME/etc/hadoop下包括hdfs-site.xml、core-site.xml、yarn-site.xml、mapred-site.xml、master、workers、hadoop-evn.xml。配置文件修改可参照官方文档按需要配置,也可以参照网上基本配置(注意:hadoop版本不同,服务端口有变化,2.X与3.X相同页面服务,端口不同。master、workers文件名称亦有变化。自行查找配置)初始镜像里没有hadoop和java的环境变量,是否需要配置?### 配置hadoop各文件部分已配置,修改一下
[hadoop配置多机](https://blog.csdn.net/sanhongbo/article/details/114440664)
以下修改操作均在hadoop-master上进行
#### 修改hadoop-env.sh文件
```python
export JAVA_HOME=/usr/local/src/jdk1.8 
export HADOOP_LOG_DIR=/data/hadoop_repo/logs/hadoop #添加这个

修改core-site.xml文件(不用改)

<configuration><property><name>fs.defaultFS</name><value>hdfs://hadoop-master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/tmp/hadoop</value></property>
</configuration>

hdfs-site.xml(不用改,保持)

<configuration><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.secondary.http-address</name><value>hadoop-master:9868</value></property>
</configuration>

mapred-site.xml(不用改)

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

yarn-site.xml(部分修改)

<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value></property><property><name>yarn.resourcemanager.hostname</name><value>hadoop-master</value></property>
</configuration>

修改workers文件(已有)

hadoop-slave1
hadoop-slave2

修改启动脚本

hadoop启动脚本修改

cd /opt/software/hadoop/hadoop-3.2.1/sbin

在这里插入图片描述

  1. start-dfs.sh,stop-dfs.sh(前者已有,后者需添加)添加以下:
    HDFS_DATANODE_USER=root
    HDFS_DATANODE_SECURE_USER=hdfs
    HDFS_NAMENODE_USER=root
    HDFS_SECONDARYNAMENODE_USER=root
    
  2. 修改start-yarn.sh,stop-yarn.sh
    YARN_RESOURCEMANAGER_USER=root
    HADOOP_SECURE_DN_USER=yarn
    YARN_NODEMANAGER_USER=root
    

格式化并启动hdfs

  1. 首先配一下环境变量source /etc/profile
  2. cd /opt/software/hadoop/hadoop-3.2.1/
  3. 格式化 hadoop namenode -format
  4. cd /opt/software/hadoop/hadoop-3.2.1/sbin

关闭防火墙

关闭防火墙
镜像里没防火墙,装上试试
(不装也打不开网页……)
resource

多种模式

在这里插入图片描述

单机模式

[本地模式环境搭建](https://blog.csdn.net/Yal_insist/article/details/123750149)
官方配置教程

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount ./wcinput ./wcoutput

mkdir input
cp etc/hadoop/.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.3.jar grep input output ‘dfs[a-z.]+’
$ cat output/

hadoop-mapreduce-examples-3.1.3.jar:一个案例,里面有多个函数
wordcount包中的其中一个功能
./wcinput输入文件
./wcoutput输出文件
都在本地,无需设置

问题1:找不到本地lib
解决1:设置环境变量

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_HOME=/home/hadoop/hadoop-3.2.1
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR:$HADOOP_HOME/share/hadoop"

解决了warn,但仍无法运行
报错:

java.io.IOException: Cannot initialize Cluster. Please check your configuration for mapreduce.framework.name and the correspond server addresses.                                 
at org.apache.hadoop.mapreduce.Cluster.initialize(Cluster.java:116)                  
at org.apache.hadoop.mapreduce.Cluster.<init>(Cluster.java:109)
...at org.apache.hadoop.util.RunJar.run(RunJar.java:323)                                at org.apache.hadoop.util.RunJar.main(RunJar.java:236)

解决:添加配置:etc/hadoop/mapred-site.xml

<property><name>mapreduce.application.classpath</name><value>$HADOOP_HOME/share/hadoop/mapreduce/*:$HADOOP_HOME/share/hadoop/mapreduce/lib/*</value>
</property>

问题3:datanode未启动
解决:hdfs --daemon start datanode

问题4:.InvalidInputException: Input path does not exist

hadoop fs -put wcintput /

上传成功了,但还是找不到。。。。

宿主机连接容器网络

宿主机连接容器网络

本地机器:windows10
虚拟机:centOS7.9
docker创建hadoop学习环境

1.创建docker镜像(hadoop)

下载centos镜像: docker pull centos
启动一个容器:docker run -td --name base -i centos bash
进入容器,安装jdk及hadoop,方法和主机一样
容器中安装ssh:yum install openssh-server openssh-clients
设置免密登录: ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
保存容器修改:docker commit base hadoop:4

docker安装java

docker安装java

  1. 下载java:java
  2. id获取:docker ps
  3. java复制到虚拟机中:5016972d8541是id
    docker cp C:\Users\wxl\Downloads\jdk-8u333-linux-x64.tar.gz 5016972d8541:/software
    
  4. 解压tar -zxvf jdk-8u65-linux-x64.tar.gz
  5. 环境变量

2. 网络问题和创建容器

macos
windows

  1. hadoop镜像:docker pull registry.cn-hangzhou.aliyuncs.com/san-namespaces/san-registry:hadoop-3.2.1
  2. 创建自定义网络
    docker network create --subnet=192.168.0.0/16 -d nat mynetwork# error 说没有nat?
    docker network create --subnet=192.168.0.0/16 -d bridge mynetwork
    docker network ls
    # NETWORK ID     NAME      DRIVER    SCOPE
    # 62710c6cefa1   bridge    bridge    local #默认连这个网络
    # 5a81d1387e99   host      host      local
    # 79d021dcdc7f   none      null      local
    
  3. 创建容器
    docker run -h hadoop-master --name hadoop-master -p 8088:8088 -p 9870:9870 -p 9868:9868 -p 1022:22 -itd --privileged=true --net mynetwork --ip 192.168.0.4 4eba2c1559c7 /usr/sbin/init
    docker run -h hadoop-slave1 --name hadoop-slave1 -itd  --privileged=true --net mynetwork --ip 192.168.0.5 4eba2c1559c7 /usr/sbin/init
    docker run -h hadoop-slave2 --name hadoop-slave2 -itd  --privileged=true --net mynetwork --ip 192.168.0.6 4eba2c1559c7 /usr/sbin/init
    
  4. 修改密码passwd root
  5. cat /etc/hosts

192.168.0.4 hadoop-master
192.168.0.5 hadoop-slave1
192.168.0.6 hadoop-slave2

重启时自动添加:cat ~/.bashrc

:>/etc/hosts cat >>/etc/hosts<<EOF
127.0.0.1 localhost
192.168.0.4 hadoop-master
192.168.0.5 hadoop-slave1
192.168.0.6 hadoop-slave2 EOF

配置机器间免密登陆

  1. 修改ssh配置
    /etc/ssh/sshd_config文件中开启:
    PubkeyAuthentication yes
    
  2. 重启ssh服务
    systemctl restart sshd.service
    
  3. 创建ssh key
    ssh-keygen -t rsa
    

连续回车,最终会在/root/.ssh目录下生成id_rsa和 id_rsa.pub文件。
上述操作每台机器执行一次(1-3)

  1. 合并公钥
    登陆hadoop-master,在/root/.ssh目录下执行以下命令,将a0的公钥追加到authorized_keys文件中(如果authorized_keys不存在会新建):

    cat id_rsa.pub>> authorized_keys
    

    将hadoop-slave1的公钥加到hadoop-master中。

    ssh root@192.168.0.5 cat ~/.ssh/id_rsa.pub>> authorized_keys
    

    输入hadoop-slave1的密码即可拷贝公钥到hadoop-master的authorized_keys中。同上拷贝hadoop-slave2的公钥到hadoop-master中。

    此时vim /root/.ssh/authorized_keys 如下图所示:

在这里插入图片描述

将hadoop-master中的公钥发送至两台从节点。完成免密登陆配置。

如果authorized_keys不生效,再使用:ssh-copy-id -i root@ip_address

配置hadoop

hadoop安装目录:/opt/software/hadoop/hadoop-3.2.1
java目录:/opt/software/java/jdk1.8.0_181
版本:3.2.1
$HADOOP_HOME/etc/hadoop

在$HADOOP_HOME/etc/hadoop下包括hdfs-site.xml、core-site.xml、yarn-site.xml、mapred-site.xml、master、workers、hadoop-evn.xml。

配置文件修改可参照官方文档按需要配置,也可以参照网上基本配置(注意:hadoop版本不同,服务端口有变化,2.X与3.X相同页面服务,端口不同。master、workers文件名称亦有变化。自行查找配置)

初始镜像里没有hadoop和java的环境变量,是否需要配置?

配置hadoop

各文件部分已配置,修改一下
hadoop配置多机
以下修改操作均在hadoop-master上进行

修改hadoop-env.sh文件

export JAVA_HOME=/usr/local/src/jdk1.8 
export HADOOP_LOG_DIR=/data/hadoop_repo/logs/hadoop #添加这个

修改core-site.xml文件(不用改)

<configuration><property><name>fs.defaultFS</name><value>hdfs://hadoop-master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/tmp/hadoop</value></property>
</configuration>

hdfs-site.xml(不用改,保持)

<configuration><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.secondary.http-address</name><value>hadoop-master:9868</value></property>
</configuration>

mapred-site.xml(不用改)

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

yarn-site.xml(部分修改)

<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value></property><property><name>yarn.resourcemanager.hostname</name><value>hadoop-master</value></property>
</configuration>

修改workers文件(已有)

hadoop-slave1
hadoop-slave2

修改启动脚本

hadoop启动脚本修改

cd /opt/software/hadoop/hadoop-3.2.1/sbin

在这里插入图片描述

  1. start-dfs.sh,stop-dfs.sh(前者已有,后者需添加)添加以下:
    HDFS_DATANODE_USER=root
    HDFS_DATANODE_SECURE_USER=hdfs
    HDFS_NAMENODE_USER=root
    HDFS_SECONDARYNAMENODE_USER=root
    
  2. 修改start-yarn.sh,stop-yarn.sh
    YARN_RESOURCEMANAGER_USER=root
    HADOOP_SECURE_DN_USER=yarn
    YARN_NODEMANAGER_USER=root
    

格式化并启动hdfs

  1. 首先配一下环境变量source /etc/profile
  2. cd /opt/software/hadoop/hadoop-3.2.1/
  3. 格式化 hadoop namenode -format
  4. cd /opt/software/hadoop/hadoop-3.2.1/sbin

关闭防火墙

关闭防火墙
镜像里没防火墙,装上试试
(不装也打不开网页……)
resource

多种模式

在这里插入图片描述

单机模式

[本地模式环境搭建](https://blog.csdn.net/Yal_insist/article/details/123750149)
官方配置教程

测试例子

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount ./wcinput ./wcoutput

mkdir input
cp etc/hadoop/.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.3.jar grep input output ‘dfs[a-z.]+’
$ cat output/

hadoop-mapreduce-examples-3.1.3.jar:一个案例,里面有多个函数
wordcount包中的其中一个功能
./wcinput输入文件
./wcoutput输出文件
都在本地,无需设置

问题1:找不到本地lib
解决1:设置环境变量

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_HOME=/home/hadoop/hadoop-3.2.1
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR:$HADOOP_HOME/share/hadoop"

解决了warn,但仍无法运行
报错:

java.io.IOException: Cannot initialize Cluster. Please check your configuration for mapreduce.framework.name and the correspond server addresses.                                 
at org.apache.hadoop.mapreduce.Cluster.initialize(Cluster.java:116)                  
at org.apache.hadoop.mapreduce.Cluster.<init>(Cluster.java:109)
...at org.apache.hadoop.util.RunJar.run(RunJar.java:323)                                at org.apache.hadoop.util.RunJar.main(RunJar.java:236)

解决:添加配置:etc/hadoop/mapred-site.xml

<property><name>mapreduce.application.classpath</name><value>$HADOOP_HOME/share/hadoop/mapreduce/*:$HADOOP_HOME/share/hadoop/mapreduce/lib/*</value>
</property>

问题3:datanode未启动
解决:hdfs --daemon start datanode

问题4:.InvalidInputException: Input path does not exist

hadoop fs -put wcintput /

上传成功了,但还是找不到。。。。
此时文件在:hdfs://hadoop-master:9000/wcinput

hadoop fs -put wcintput /user/root

上传成功了,这个是hadoop jar默认找的路径

以及因为没有成功关掉slave1和slave2中的nodemanager,此时是集群模式……
不是我以为的单机

宿主机连接容器网络

宿主机连接容器网络

  1. 找到宿主机中docker的网络:172.29.16.1 掩码未255.255.240.0
    在这里插入图片描述
  2. 在docker的设置中找到子网设置:设为172.29.16.0/28。和1的掩码一致
    在这里插入图片描述
  3. 管理员模式设置route:route -p ADD 192.168.0.0 MASK 255.255.255.240 172.29.16.2 注意这里的172.29.16.2
  4. 设置成功后,相当于docker0=172.29.16.1
    通过这个ip,可在宿主机中访问容器,在容器中访问宿主机,都是可以ping通这个ip的
  5. 在宿主机的网页中,此时可以访问页面了,前面创建时,已经设置了端口映射

http://172.29.16.1:8088/cluster
在这里插入图片描述
端口:
在这里插入图片描述

docker网络介绍
宿主机ssh访问容器:172.29.16.1:1022
需要添加端口映射-p 1022:22

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481407.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

工信部专家:中国传感器最大的问题是什么?怎么解决?(最新观点)

来源&#xff1a;中国传感器与应用技术大会、河南省智能传感器行业协会、中国电子报、传感器专家网&#xff08;本文仅做综合整理&#xff09;11月11日-13日&#xff0c;首届中国传感器与应用技术大会在深圳市光明区隆重举行。会上&#xff0c;工信部电子元器件行业发展研究中心…

皮亚杰:数学结构和逻辑结构

来源&#xff1a;人机与认知实验室计算是封闭的事实结构&#xff0c;算计是开放的价值组合&#xff0c;计算计是开放性封闭的事实价值混合体——编者按群的概念如果不从检验数学结构开始&#xff0c;就不可能对结构主义进行批判性的陈述。其所以如此&#xff0c;不仅因为有逻辑…

大模型狂欢背后:AI基础设施的“老化”与改造工程

来源&#xff1a;OneFlow社区作者&#xff1a;River Riddle、Eric Johnson、Abdul Dakak翻译&#xff1a;胡燕君、杨婷机器学习模型逐渐发展成人们口中的“庞然大物”。全球顶尖的科技公司纷纷踏上“军备竞赛”之路&#xff0c;立志训练出规模最大的模型&#xff08;MUM、OPT、…

DeepMind 最新发文:AlphaZero 的黑箱打开了

来源&#xff1a;AI科技评论作者&#xff1a;李梅编辑&#xff1a;陈彩娴AlphaZero 表明神经网络可以学到人类可理解的表征。国际象棋一直是 AI 的试验场。70 年前&#xff0c;艾伦图灵猜想可以制造一台能够自我学习并不断从自身经验中获得改进的下棋机器。上世纪出现的“深蓝”…

陶哲轩:张益唐新论文存在一些技术问题,我已请他澄清

来源&#xff1a;梦晨 羿阁 发自 凹非寺量子位 | 公众号 QbitAI张益唐的零点猜想证明&#xff0c;该由谁来检验&#xff1f;不少人把目光投向陶哲轩。最新消息&#xff0c;陶哲轩已经读过张益唐的论文并做出点评&#xff1a;目前论文的基本正确性尚未得到确认。存在一些印刷错误…

MIT提出封闭式连续时间神经网络,解决大脑动力学问题可产生灵活的机器学习模型...

编辑/绿萝去年&#xff0c;麻省理工学院&#xff08;MIT&#xff09;的研究人员开发出了「液体」神经网络&#xff0c;其灵感来自小型物种的大脑&#xff0c;不仅能在训练阶段学习&#xff0c;而且还能持续不断地适应。可用于自动驾驶和飞行、大脑和心脏监测、天气预报和股票定…

自上而下的因果关系:数学结构与观察者

导语复杂性的基础是模块化的分层结构&#xff0c;导致基于较低级别网络的结构和功能的涌现级别。通俗而言&#xff0c;当需要执行复杂的任务时&#xff0c;可以将其分解为子任务&#xff0c;每个子任务都比整个项目更简单&#xff0c;需要更少的数据和更少的计算能力&#xff0…

从大脑中汲取灵感,能效提高了1000倍,新芯片拓展AI的可能性

来源&#xff1a;ScienceAI人工智能算法无法以目前的速度保持增长。像深度神经网络这样的算法——它受到大脑的松散启发&#xff0c;多层人工神经元通过称为权重的数值相互连接——每年都在变大。但如今&#xff0c;硬件改进已无法跟上运行这些海量算法所需的大量内存和处理能力…

5G/6G:构建一个更加互联智能的世界

来源&#xff1a;IEEE电气电子工程师在过去几年中&#xff0c;随着5G网络技术的兴起&#xff0c;5G基础建设与应用也日渐成熟。2023年&#xff0c;通信行业的发展步伐也并未放缓。在《IEEE全球调研&#xff1a;科技在2023年及未来的影响》中显示&#xff0c;当半数的受访者谈及…

Science 撤稿“天使粒子”论文,原始数据受质疑

海归学者发起的公益学术平台分享信息&#xff0c;整合资源交流学术&#xff0c;偶尔风月11月18日&#xff0c; Science 撤下了王康隆、张首晟等科学家完成的著名“天使粒子”论文。2021年3月 Nature 也撤回了代尔夫特理工大学的一篇“天使粒子”相关的论文。两篇重量级论文的倒…

2022年全球人工智能产业态势分析

来源&#xff1a;学术plus 作者&#xff1a;学术plus观察员 曹文&#xff0c;惠文审核&#xff1a;行业研究顾问 辛鑫&#xff0c;行雁国家战略风向1.1 全球主要国家密集发布政策举措&#xff0c;争夺人工智能领域优势2022年全球主要国家在人工智能领域的竞争仍然激烈。据英国牛…

你与植物人有何区别?意识与复杂性的新研究给你答案

来源&#xff1a;Mindverse Research作者&#xff1a;郭瑞东相比无意识的时间&#xff0c;当你有意识时&#xff0c;你会有怎样的直观感受&#xff1f;是觉得更加不可预测&#xff0c;还是能够用相距更长的事件进行描述&#xff1f;如果将有意识时的大脑活动记录下来&#xff0…

NeuroAI作者,冷泉港主任独家专访:忽视神经科学给我们的启示是愚蠢的

来源&#xff1a;智源社区采访&整理&#xff1a;李梦佳校对&#xff1a;熊宇轩神经科学究竟如何启发AI&#xff1f;不同路径如何殊途同归&#xff1f;智源社区采访了NeuroAI白皮书的第一署名作者&#xff0c;来自冷泉港实验室&#xff08;Cold Spring Harbor Laboratory&am…

AI再卷数学界,DSP新方法将机器证明成功率提高一倍

来源&#xff1a;机器之心编谷歌的吴宇怀 (Yuhuai Tony Wu)等研究者设计了一种叫做「Draft, Sketch, and Prove」 (DSP)的新方法将非形式化的数学证明转化为形式化的证明。实验结果显示&#xff0c;自动证明器在 miniF2F 上解决的问题比例从 20.9% 提高到了 38.9%。自动证明数学…

华人数学家死磕欧拉方程10年,用计算机找到了让它失效的“奇点”

来源&#xff1a;金磊 发自 凹非寺量子位 | 公众号 QbitAI专研长达10年&#xff0c;论文足足177页。华人数学家通过计算机&#xff0c;找到了让著名欧拉方程失效的“奇点”。△图源&#xff1a;Quanta Magazine欧拉方程&#xff0c;是250年前&#xff08;1755年&#xff09;由瑞…

张益唐零点问题论文会是什么结果?

关注 哆嗒数学网 每天获得更多数学趣文最近&#xff0c;菲尔兹奖得主在他的一篇旧博文的评论区对张益唐关于朗道-西格尔猜想的论文进行了评论。大概意思是&#xff0c;论文还没被确认是正确的&#xff0c;因为文章已经发现的各种问题&#xff0c;其中一些问题还是阻碍验证的过程…

大型互联网系统架构演进,BATJ其实无需神化……

来源&#xff1a;云技术一、前言说到互联网系统架构&#xff0c;在互联网行业日渐成熟的今天&#xff0c;一谈到这背后的技术体系&#xff0c;很多人脑海中可能就会浮现从网上看到的&#xff0c;一个个庞大的知识图谱&#xff0c;能说地清楚其中一二的同学&#xff0c;自然是志…

AI能否改变我们发现新药的方式?哈佛医学院团队开发AI驱动的药物发现平台

编辑 | 绿萝世界人口老龄化、慢性病和传染病负担日益加重&#xff0c;迫切需要安全有效的药物来满足全球数十亿人的医疗需求。然而&#xff0c;发现一种新药并将其推向市场是一个漫长、艰巨且昂贵的过程。长期以来&#xff0c;人工智能&#xff08;AI&#xff09;一直被认为能够…

城市大脑的基本原理与战略意义分析

本文发布于2022年10月中国指挥与控制学会会刊作者&#xff1a;刘锋城市大脑是21世纪以互联网为核心的世界数字生态向类脑结构演化并与智慧城市结合的产物&#xff0c;世界统一的数字神经元将人、物、系统和组织有机的结合在一起实现万物互联&#xff0c;云反射弧机制实现数字神…

“史上最贵”世界杯,暗藏哪些传感器黑科技?

来源&#xff1a;综合来源&#xff1a;科技日报、IDG资本、中国日报双语新闻、感知芯视界等编辑&#xff1a;感知芯视界2022年卡塔尔世界杯(FIFA World Cup Qatar 2022)是第二十二届世界杯足球赛&#xff0c;是历史上首次在卡塔尔和中东国家境内举行、也是继2002年韩日世界杯之…