将中型CSV导入JawsDB MySQL数据库

xytpbqjk  于 12个月前  发布在  Mysql
关注(0)|答案(1)|浏览(94)

我目前有一个共享的Leopard Mysql DB连接到我的heroku示例。提供商是JawsDB。我需要导入一个中等大小的CSV,大约160,000条记录。我目前正在使用mysql工作台,并尝试了几种方法来导入它没有运气。我第一次尝试使用导入向导,我很快就击中了我的max_questions资源,无法运行任何查询了一点。我尝试使用LOAD DATA REPORT INFILE,但没有管理员权限来实际加载此文件。我在网上找不到其他好的答案,有什么建议吗?
我无法访问远程机器/服务器,通过SQL客户端连接。

hrysbysz

hrysbysz1#

在本地计算机中创建Csv文件

pip install pandas

Python脚本[import_csv_to_mysql.py] -

import pandas as pd
import sqlalchemy

# Replace with your database connection details
database_url = "mysql://user_name:password@host_name:PORT/database_name"

# Read the CSV file
csv_path = "path/to/your/csv/file.csv"

db = pd.read_csv(csv_path)

# Create a database engine
engine = sqlalchemy.create_engine(database_url)

# Insert the data into the database
db.to_sql("table-name", engine, if_exists="replace", index=False)
engine.dispose()

运行python脚本-

python import_csv_to_mysql.py

相关问题